]> ocean-lang.org Git - ocean/blob - csrc/parsergen.mdc
Remove excess blank lines
[ocean] / csrc / parsergen.mdc
1 # LR(1) Parser Generator #
2
3 This parser generator takes a grammar description combined with code
4 fragments, analyses it, and can report details about the analysis and
5 write out C code files which can be compiled to make a parser.
6
7 There are several distinct sections.
8
9 1. `grammar_read` will read a grammar from a literate-code file and
10    store the productions, symbols, and code fragments.
11 2. `grammar_analyse` will take that grammar and build LR parsing
12    states and look-ahead tables.
13 3. `grammar_report` will present the details of the analysis
14    in a readable format and will report any conflicts.
15 4. `parser_generate` will write out C code files with various
16    tables and with the code fragments arranged in useful places.
17 5. `parser_run` is a library function intended to be linked together
18    with the generated parser tables to complete the implementation of
19    a parser.
20 6. Finally `calc` is a test grammar for a simple calculator.  The
21    `parsergen` program built from the C code in this file can extract
22    that grammar directly from this file and process it.
23
24 ###### File: parsergen.c
25         #include <unistd.h>
26         #include <stdlib.h>
27         #include <stdio.h>
28         ## includes
29         ## forward declarations
30         ## declarations
31         ## functions
32         ## grammar_read
33         ## grammar_analyse
34         ## grammar_report
35         ## parser_generate
36         ## main
37 ###### File: parser.h
38         ## exported types
39         ## exported functions
40 ###### File: libparser.c
41         #include <unistd.h>
42         #include <stdlib.h>
43         #include <stdio.h>
44         ## parser includes
45         ## parser functions
46         ## parser_run
47 ###### File: parsergen.mk
48         CFLAGS += -Wall -g
49         all :: parsergen calc
50         parsergen.c parsergen.mk libparser.c parser.h : parsergen.mdc
51                 ./md2c parsergen.mdc
52
53 ## Reading the grammar
54
55 The grammar must be stored in a markdown literate code file as parsed
56 by "[mdcode][]".  It must have three top level (i.e. unreferenced)
57 sections: `header`, `code`, and `grammar`.  The first two will be
58 literally copied into the generated `.c` and `.h`. files.  The last
59 contains the grammar.  This is tokenised with "[scanner][]".
60
61 If the `--tag` option is given, then any top level header that doesn't
62 start with the tag is ignored, and the tag is striped from the rest.  So
63 `--tag Foo`
64 means that the three needed sections must be `Foo: header`, `Foo: code`,
65 and `Foo: grammar`.  The tag `calc` is used to extract the same calculator
66 from this file.
67
68 [mdcode]: mdcode.html
69 [scanner]: scanner.html
70
71 ###### includes
72         #include "mdcode.h"
73         #include "scanner.h"
74
75 ###### parser includes
76         #include "mdcode.h"
77         #include "scanner.h"
78
79 The grammar contains production sets, precedence/associativity
80 declarations, and data type declarations.  These are all parsed with
81 _ad hoc_ parsing as we don't have a parser generator yet.
82
83 The precedence and associativity can be set for each production, but
84 can be inherited from symbols.  The data type (either structure or a
85 reference to a structure) is potentially defined for each non-terminal
86 and describes what C structure is used to store information about each
87 symbol.
88
89 ###### declarations
90         enum assoc {Left, Right, Non};
91         char *assoc_names[] = {"Left","Right","Non"};
92
93         struct symbol {
94                 struct text struct_name;
95                 int isref;
96                 enum assoc assoc;
97                 unsigned short precedence;
98                 ## symbol fields
99         };
100         struct production {
101                 unsigned short precedence;
102                 enum assoc assoc;
103                 ## production fields
104         };
105         struct grammar {
106                 ## grammar fields
107         };
108
109 The strings reported by `mdcode` and `scanner` are `struct text` which have
110 length rather than being null terminated.  To help with printing and
111 comparing we define `text_is` and `prtxt`, which should possibly go in
112 `mdcode`.  `scanner` does provide `text_dump` which is useful for strings
113 which might contain control characters.
114
115 `strip_tag` is a bit like `strncmp`, but adds a test for a colon,
116 because that is what we need to detect tags.
117
118 ###### functions
119         static int text_is(struct text t, char *s)
120         {
121                 return (strlen(s) == t.len &&
122                         strncmp(s, t.txt, t.len) == 0);
123         }
124         static void prtxt(struct text t)
125         {
126                 printf("%.*s", t.len, t.txt);
127         }
128
129         static int strip_tag(struct text *t, char *tag)
130         {
131                 int skip = strlen(tag) + 1;
132                 if (skip >= t->len ||
133                     strncmp(t->txt, tag, skip-1) != 0 ||
134                     t->txt[skip-1] != ':')
135                         return 0;
136                 while (skip < t->len && t->txt[skip] == ' ')
137                         skip++;
138                 t->len -= skip;
139                 t->txt += skip;
140                 return 1;
141         }
142
143 ### Symbols
144
145 Productions are comprised primarily of symbols - terminal and
146 non-terminal.  We do not make a syntactic distinction between the two,
147 though non-terminals must be identifiers.  Non-terminal symbols are
148 those which appear in the head of a production, terminal symbols are
149 those which don't.  There are also "virtual" symbols used for precedence
150 marking discussed later, and sometimes we won't know what type a symbol
151 is yet.
152
153 ###### forward declarations
154         enum symtype { Unknown, Virtual, Terminal, Nonterminal };
155         char *symtypes = "UVTN";
156 ###### symbol fields
157         enum symtype type;
158
159 Symbols can be either `TK_ident` or `TK_mark`.  They are saved in a
160 table of known symbols and the resulting parser will report them as
161 `TK_reserved + N`.  A small set of identifiers are reserved for the
162 different token types that `scanner` can report.
163
164 ###### declarations
165         static char *reserved_words[] = {
166                 [TK_error]        = "ERROR",
167                 [TK_number]       = "NUMBER",
168                 [TK_ident]        = "IDENTIFIER",
169                 [TK_mark]         = "MARK",
170                 [TK_string]       = "STRING",
171                 [TK_multi_string] = "MULTI_STRING",
172                 [TK_in]           = "IN",
173                 [TK_out]          = "OUT",
174                 [TK_newline]      = "NEWLINE",
175                 [TK_eof]          = "$eof",
176         };
177 ###### symbol fields
178         short num;
179
180 Note that `TK_eof` and the two `TK_*_comment` tokens cannot be
181 recognised.  The former is automatically expected at the end of the text
182 being parsed. The latter are always ignored by the parser.
183
184 All of these symbols are stored in a simple symbol table.  We use the
185 `struct text` from `mdcode` to store the name and link them together
186 into a sorted list using an insertion sort.
187
188 We don't have separate `find` and `insert` functions as any symbol we
189 find needs to be remembered.  We simply expect `find` to always return a
190 symbol, but its type might be `Unknown`.
191
192 ###### includes
193         #include <string.h>
194
195 ###### symbol fields
196         struct text name;
197         struct symbol *next;
198
199 ###### grammar fields
200         struct symbol *syms;
201         int num_syms;
202
203 ###### functions
204         static struct symbol *sym_find(struct grammar *g, struct text s)
205         {
206                 struct symbol **l = &g->syms;
207                 struct symbol *n;
208                 int cmp = 1;
209
210                 while (*l &&
211                         (cmp = text_cmp((*l)->name, s)) < 0)
212                                 l = & (*l)->next;
213                 if (cmp == 0)
214                         return *l;
215                 n = calloc(1, sizeof(*n));
216                 n->name = s;
217                 n->type = Unknown;
218                 n->next = *l;
219                 n->num = -1;
220                 *l = n;
221                 return n;
222         }
223
224         static void symbols_init(struct grammar *g)
225         {
226                 int entries = sizeof(reserved_words)/sizeof(reserved_words[0]);
227                 int i;
228                 for (i = 0; i < entries; i++) {
229                         struct text t;
230                         struct symbol *s;
231                         t.txt = reserved_words[i];
232                         if (!t.txt)
233                                 continue;
234                         t.len = strlen(t.txt);
235                         s = sym_find(g, t);
236                         s->type = Terminal;
237                         s->num = i;
238                 }
239         }
240
241 ### Data types and precedence.
242
243 Data type specification and precedence specification are both
244 introduced by a dollar sign at the start of the line.  If the next
245 word is `LEFT`, `RIGHT` or `NON`, then the line specifies a
246 precedence, otherwise it specifies a data type.
247
248 The data type name is simply stored and applied to the head of all
249 subsequent productions.  It must be the name of a structure optionally
250 preceded by an asterisk which means a reference or "pointer".  So
251 `$expression` maps to `struct expression` and `$*statement` maps to
252 `struct statement *`.
253
254 Any productions given before the first data type declaration will have
255 no data type associated with them and can carry no information.  In
256 order to allow other non-terminals to have no type, the data type
257 `$void` can be given.  This does *not* mean that `struct void` will be
258 used, but rather than no type will be associated with future
259 non-terminals.
260
261 The precedence line must contain a list of symbols - typically
262 terminal symbols, but not necessarily.  It can only contain symbols
263 that have not been seen yet, so precedence declaration must precede
264 the productions that they affect.
265
266 A precedence line may also contain a "virtual" symbol which is an
267 identifier preceded by `$$`.  Virtual terminals carry precedence
268 information but are not included in the grammar.  A production can
269 declare that it inherits the precedence of a given virtual symbol.
270
271 This use for `$$` precludes it from being used as a symbol in the
272 described language.  Two other symbols: `${` and `}$` are also
273 unavailable.
274
275 Each new precedence line introduces a new precedence level and
276 declares how it associates.  This level is stored in each symbol
277 listed and may be inherited by any production which uses the symbol.  A
278 production inherits from the last symbol which has a precedence.
279
280 ###### grammar fields
281         struct text current_type;
282         int type_isref;
283         int prec_levels;
284
285 ###### declarations
286         enum symbols { TK_virtual = TK_reserved, TK_open, TK_close };
287         static const char *known[] = { "$$", "${", "}$" };
288
289 ###### functions
290         static char *dollar_line(struct token_state *ts, struct grammar *g, int isref)
291         {
292                 struct token t = token_next(ts);
293                 char *err;
294                 enum assoc assoc;
295                 int found;
296
297                 if (t.num != TK_ident) {
298                         err = "type or assoc expected after '$'";
299                         goto abort;
300                 }
301                 if (text_is(t.txt, "LEFT"))
302                         assoc = Left;
303                 else if (text_is(t.txt, "RIGHT"))
304                         assoc = Right;
305                 else if (text_is(t.txt, "NON"))
306                         assoc = Non;
307                 else {
308                         g->current_type = t.txt;
309                         g->type_isref = isref;
310                         if (text_is(t.txt, "void"))
311                                 g->current_type.txt = NULL;
312                         t = token_next(ts);
313                         if (t.num != TK_newline) {
314                                 err = "Extra tokens after type name";
315                                 goto abort;
316                         }
317                         return NULL;
318                 }
319
320                 if (isref) {
321                         err = "$* cannot be followed by a precedence";
322                         goto abort;
323                 }
324
325                 // This is a precedence line, need some symbols.
326                 found = 0;
327                 g->prec_levels += 1;
328                 t = token_next(ts);
329                 while (t.num != TK_newline) {
330                         enum symtype type = Terminal;
331                         struct symbol *s;
332                         if (t.num == TK_virtual) {
333                                 type = Virtual;
334                                 t = token_next(ts);
335                                 if (t.num != TK_ident) {
336                                         err = "$$ must be followed by a word";
337                                         goto abort;
338                                 }
339                         } else if (t.num != TK_ident &&
340                                    t.num != TK_mark) {
341                                 err = "Illegal token in precedence line";
342                                 goto abort;
343                         }
344                         s = sym_find(g, t.txt);
345                         if (s->type != Unknown) {
346                                 err = "Symbols in precedence line must not already be known.";
347                                 goto abort;
348                         }
349                         s->type = type;
350                         s->precedence = g->prec_levels;
351                         s->assoc = assoc;
352                         found += 1;
353                         t = token_next(ts);
354                 }
355                 if (found == 0)
356                         err = "No symbols given on precedence line";
357                         goto abort;
358                 return NULL;
359         abort:
360                 while (t.num != TK_newline && t.num != TK_eof)
361                         t = token_next(ts);
362                 return err;
363         }
364
365 ### Productions
366
367 A production either starts with an identifier which is the head
368 non-terminal, or a vertical bar (`|`) in which case this production
369 uses the same head as the previous one.  The identifier must be
370 followed by a `->` mark.  All productions for a given non-terminal must
371 be grouped together with the `nonterminal ->` given only once.
372
373 After this a (possibly empty) sequence of identifiers and marks form
374 the body of the production.  A virtual symbol may be given after the
375 body by preceding it with `$$`.  If a virtual symbol is given, the
376 precedence of the production is that for the virtual symbol.  If none
377 is given, the precedence is inherited from the last symbol in the
378 production which has a precedence specified.
379
380 After the optional precedence may come the `${` mark.  This indicates
381 the start of a code fragment.  If present, this must be on the same
382 line as the start of the production.
383
384 All of the text from the `${` through to the matching `}$` is
385 collected and forms the code-fragment for the production.  It must all
386 be in one `code_node` of the literate code.  The `}$` must be
387 at the end of a line.
388
389 Text in the code fragment will undergo substitutions where `$N` or
390 `$<N`,for some numeric `N`, will be replaced with a variable holding
391 the parse information for the particular symbol in the production.
392 `$0` is the head of the production, `$1` is the first symbol of the
393 body, etc.  The type of `$N` for a terminal symbol is `struct token`.
394 For a non-terminal, it is whatever has been declared for that symbol.
395 The `<` may be included for symbols declared as storing a reference
396 (not a structure) and means that the reference is being moved out, so
397 it will not automatically be freed.
398
399 While building productions we will need to add to an array which needs to
400 grow dynamically.
401
402 ###### functions
403         static void array_add(void *varray, int *cnt, void *new)
404         {
405                 void ***array = varray;
406                 int current = 0;
407                 const int step = 8;
408                 current = ((*cnt-1) | (step-1))+1;
409                 if (*cnt == current) {
410                         /* must grow */
411                         current += step;
412                         *array = realloc(*array, current * sizeof(void*));
413                 }
414                 (*array)[*cnt] = new;
415                 (*cnt) += 1;
416         }
417
418 Collecting the code fragment simply involves reading tokens until we
419 hit the end token `}$`, and noting the character position of the start and
420 the end.
421
422 ###### functions
423         static struct text collect_code(struct token_state *state,
424                                         struct token start)
425         {
426                 struct text code;
427                 struct token t;
428                 code.txt = start.txt.txt + start.txt.len;
429                 do
430                         t = token_next(state);
431                 while (t.node == start.node &&
432                        t.num != TK_close && t.num != TK_error &&
433                        t.num != TK_eof);
434                 if (t.num == TK_close && t.node == start.node)
435                         code.len = t.txt.txt - code.txt;
436                 else
437                         code.txt = NULL;
438                 return code;
439         }
440
441 Now we have all the bits we need to parse a full production.
442
443 ###### includes
444         #include <memory.h>
445
446 ###### grammar fields
447         struct production **productions;
448         int production_count;
449
450 ###### production fields
451         struct symbol  *head;
452         struct symbol **body;
453         int             body_size;
454         struct text     code;
455         int             code_line;
456
457 ###### symbol fields
458         int first_production;
459
460 ###### functions
461         static char *parse_production(struct grammar *g,
462                                       struct symbol *head,
463                                       struct token_state *state)
464         {
465                 /* Head has already been parsed. */
466                 struct token tk;
467                 char *err;
468                 struct production p, *pp;
469
470                 memset(&p, 0, sizeof(p));
471                 p.head = head;
472                 tk = token_next(state);
473                 while (tk.num == TK_ident || tk.num == TK_mark) {
474                         struct symbol *bs = sym_find(g, tk.txt);
475                         if (bs->type == Unknown)
476                                 bs->type = Terminal;
477                         if (bs->type == Virtual) {
478                                 err = "Virtual symbol not permitted in production";
479                                 goto abort;
480                         }
481                         if (bs->precedence) {
482                                 p.precedence = bs->precedence;
483                                 p.assoc = bs->assoc;
484                         }
485                         array_add(&p.body, &p.body_size, bs);
486                         tk = token_next(state);
487                 }
488                 if (tk.num == TK_virtual) {
489                         struct symbol *vs;
490                         tk = token_next(state);
491                         if (tk.num != TK_ident) {
492                                 err = "word required after $$";
493                                 goto abort;
494                         }
495                         vs = sym_find(g, tk.txt);
496                         if (vs->type != Virtual) {
497                                 err = "symbol after $$ must be virtual";
498                                 goto abort;
499                         }
500                         p.precedence = vs->precedence;
501                         p.assoc = vs->assoc;
502                         tk = token_next(state);
503                 }
504                 if (tk.num == TK_open) {
505                         p.code_line = tk.line;
506                         p.code = collect_code(state, tk);
507                         if (p.code.txt == NULL) {
508                                 err = "code fragment not closed properly";
509                                 goto abort;
510                         }
511                         tk = token_next(state);
512                 }
513                 if (tk.num != TK_newline && tk.num != TK_eof) {
514                         err = "stray tokens at end of line";
515                         goto abort;
516                 }
517                 pp = malloc(sizeof(*pp));
518                 *pp = p;
519                 array_add(&g->productions, &g->production_count, pp);
520                 return NULL;
521         abort:
522                 while (tk.num != TK_newline && tk.num != TK_eof)
523                         tk = token_next(state);
524                 return err;
525         }
526
527 With the ability to parse production and dollar-lines, we have nearly all
528 that we need to parse a grammar from a `code_node`.
529
530 The head of the first production will effectively be the `start` symbol of
531 the grammar.  However it won't _actually_ be so.  Processing the grammar is
532 greatly simplified if the real start symbol only has a single production,
533 and expects `$eof` as the final terminal.  So when we find the first
534 explicit production we insert an extra production as production zero which
535 looks like
536
537 ###### Example: production 0
538         $start -> START $eof
539
540 where `START` is the first non-terminal given.
541
542 ###### create production zero
543         struct production *p = calloc(1,sizeof(*p));
544         struct text start = {"$start",6};
545         struct text eof = {"$eof",4};
546         struct text code = {"$0 = $<1;", 9};
547         p->head = sym_find(g, start);
548         p->head->type = Nonterminal;
549         p->head->struct_name = g->current_type;
550         p->head->isref = g->type_isref;
551         if (g->current_type.txt)
552                 p->code = code;
553         array_add(&p->body, &p->body_size, head);
554         array_add(&p->body, &p->body_size, sym_find(g, eof));
555         p->head->first_production = g->production_count;
556         array_add(&g->productions, &g->production_count, p);
557
558 Now we are ready to read in the grammar.  We ignore comments
559 and strings so that the marks which introduce them can be
560 used as terminals in the grammar.  We don't ignore numbers
561 even though we don't allow them as that causes the scanner
562 to produce errors that the parser is better positioned to handle.
563
564 ###### grammar_read
565         static struct grammar *grammar_read(struct code_node *code)
566         {
567                 struct token_config conf = {
568                         .word_start = "",
569                         .word_cont = "",
570                         .words_marks = known,
571                         .known_count = sizeof(known)/sizeof(known[0]),
572                         .number_chars = "",
573                         .ignored = (1 << TK_line_comment)
574                                  | (1 << TK_block_comment)
575                                  | (0 << TK_number)
576                                  | (1 << TK_string)
577                                  | (1 << TK_multi_string)
578                                  | (1 << TK_in)
579                                  | (1 << TK_out),
580                 };
581
582                 struct token_state *state = token_open(code, &conf);
583                 struct token tk;
584                 struct symbol *head = NULL;
585                 struct grammar *g;
586                 char *err = NULL;
587
588                 g = calloc(1, sizeof(*g));
589                 symbols_init(g);
590
591                 for (tk = token_next(state); tk.num != TK_eof;
592                      tk = token_next(state)) {
593                         if (tk.num == TK_newline)
594                                 continue;
595                         if (tk.num == TK_ident) {
596                                 // new non-terminal
597                                 head = sym_find(g, tk.txt);
598                                 if (head->type == Nonterminal)
599                                         err = "This non-terminal has already be used.";
600                                 else if (head->type == Virtual)
601                                         err = "Virtual symbol not permitted in head of production";
602                                 else {
603                                         head->type = Nonterminal;
604                                         head->struct_name = g->current_type;
605                                         head->isref = g->type_isref;
606                                         if (g->production_count == 0) {
607                                                 ## create production zero
608                                         }
609                                         head->first_production = g->production_count;
610                                         tk = token_next(state);
611                                         if (tk.num == TK_mark &&
612                                             text_is(tk.txt, "->"))
613                                                 err = parse_production(g, head, state);
614                                         else
615                                                 err = "'->' missing in production";
616                                 }
617                         } else if (tk.num == TK_mark
618                                    && text_is(tk.txt, "|")) {
619                                 // another production for same non-term
620                                 if (head)
621                                         err = parse_production(g, head, state);
622                                 else
623                                         err = "First production must have a head";
624                         } else if (tk.num == TK_mark
625                                    && text_is(tk.txt, "$")) {
626                                 err = dollar_line(state, g, 0);
627                         } else if (tk.num == TK_mark
628                                    && text_is(tk.txt, "$*")) {
629                                 err = dollar_line(state, g, 1);
630                         } else {
631                                 err = "Unrecognised token at start of line.";
632                         }
633                         if (err)
634                                 goto abort;
635                 }
636                 token_close(state);
637                 return g;
638         abort:
639                 fprintf(stderr, "Error at line %d: %s\n",
640                         tk.line, err);
641                 token_close(state);
642                 free(g);
643                 return NULL;
644         }
645
646 ## Analysing the grammar
647
648 The central task in analysing the grammar is to determine a set of
649 states to drive the parsing process.  This will require finding
650 various sets of symbols and of "items".  Some of these sets will need
651 to attach information to each element in the set, so they are more
652 like maps.
653
654 Each "item" may have a 'look-ahead' or `LA` set associated with
655 it.  Many of these will be the same as each other.  To avoid memory
656 wastage, and to simplify some comparisons of sets, these sets will be
657 stored in a list of unique sets, each assigned a number.
658
659 Once we have the data structures in hand to manage these sets and
660 lists, we can start setting the 'nullable' flag, build the 'FIRST'
661 sets, and then create the item sets which define the various states.
662
663 ### Symbol sets.
664
665 Though we don't only store symbols in these sets, they are the main
666 things we store, so they are called symbol sets or "symsets".
667
668 A symset has a size, an array of shorts, and an optional array of data
669 values, which are also shorts.  If the array of data is not present,
670 we store an impossible pointer, as `NULL` is used to indicate that no
671 memory has been allocated yet;
672
673 ###### declarations
674         struct symset {
675                 short cnt;
676                 unsigned short *syms, *data;
677         };
678         #define NO_DATA ((unsigned short *)1)
679         const struct symset INIT_SYMSET =  { 0, NULL, NO_DATA };
680         const struct symset INIT_DATASET = { 0, NULL, NULL };
681
682 The arrays of shorts are allocated in blocks of 8 and are kept sorted
683 by using an insertion sort.  We don't explicitly record the amount of
684 allocated space as it can be derived directly from the current `cnt` using
685 `((cnt - 1) | 7) + 1`.
686
687 ###### functions
688         static void symset_add(struct symset *s, unsigned short key, unsigned short val)
689         {
690                 int i;
691                 int current = ((s->cnt-1) | 7) + 1;
692                 if (current == s->cnt) {
693                         current += 8;
694                         s->syms = realloc(s->syms, sizeof(*s->syms) * current);
695                         if (s->data != NO_DATA)
696                                 s->data = realloc(s->data, sizeof(*s->data) * current);
697                 }
698                 i = s->cnt;
699                 while (i > 0 && s->syms[i-1] > key) {
700                         s->syms[i] = s->syms[i-1];
701                         if (s->data != NO_DATA)
702                                 s->data[i] = s->data[i-1];
703                         i--;
704                 }
705                 s->syms[i] = key;
706                 if (s->data != NO_DATA)
707                         s->data[i] = val;
708                 s->cnt += 1;
709         }
710
711 Finding a symbol (or item) in a `symset` uses a simple binary search.
712 We return the index where the value was found (so data can be accessed),
713 or `-1` to indicate failure.
714
715         static int symset_find(struct symset *ss, unsigned short key)
716         {
717                 int lo = 0;
718                 int hi = ss->cnt;
719
720                 if (hi == 0)
721                         return -1;
722                 while (lo + 1 < hi) {
723                         int mid = (lo + hi) / 2;
724                         if (ss->syms[mid] <= key)
725                                 lo = mid;
726                         else
727                                 hi = mid;
728                 }
729                 if (ss->syms[lo] == key)
730                         return lo;
731                 return -1;
732         }
733
734 We will often want to form the union of two symsets.  When we do, we
735 will often want to know if anything changed (as that might mean there
736 is more work to do).  So `symset_union` reports whether anything was
737 added to the first set.  We use a slow quadratic approach as these
738 sets don't really get very big.  If profiles shows this to be a problem it
739 can be optimised later.
740
741         static int symset_union(struct symset *a, struct symset *b)
742         {
743                 int i;
744                 int added = 0;
745                 for (i = 0; i < b->cnt; i++)
746                         if (symset_find(a, b->syms[i]) < 0) {
747                                 unsigned short data = 0;
748                                 if (b->data != NO_DATA)
749                                         data = b->data[i];
750                                 symset_add(a, b->syms[i], data);
751                                 added++;
752                         }
753                 return added;
754         }
755
756 And of course we must be able to free a symset.
757
758         static void symset_free(struct symset ss)
759         {
760                 free(ss.syms);
761                 if (ss.data != NO_DATA)
762                         free(ss.data);
763         }
764
765 ### Symset Storage
766
767 Some symsets are simply stored somewhere appropriate in the `grammar`
768 data structure, others needs a bit of indirection.  This applies
769 particularly to "LA" sets.  These will be paired with "items" in an
770 "itemset".  As itemsets will be stored in a symset, the "LA" set needs to be
771 stored in the `data` field, so we need a mapping from a small (short)
772 number to an LA `symset`.
773
774 As mentioned earlier this involves creating a list of unique symsets.
775
776 For now, we just use a linear list sorted by insertion.  A skiplist
777 would be more efficient and may be added later.
778
779 ###### declarations
780
781         struct setlist {
782                 struct symset ss;
783                 int num;
784                 struct setlist *next;
785         };
786
787 ###### grammar fields
788         struct setlist *sets;
789         int nextset;
790
791 ###### functions
792
793         static int ss_cmp(struct symset a, struct symset b)
794         {
795                 int i;
796                 int diff = a.cnt - b.cnt;
797                 if (diff)
798                         return diff;
799                 for (i = 0; i < a.cnt; i++) {
800                         diff = (int)a.syms[i] - (int)b.syms[i];
801                         if (diff)
802                                 return diff;
803                 }
804                 return 0;
805         }
806
807         static int save_set(struct grammar *g, struct symset ss)
808         {
809                 struct setlist **sl = &g->sets;
810                 int cmp = 1;
811                 struct setlist *s;
812
813                 while (*sl && (cmp = ss_cmp((*sl)->ss, ss)) < 0)
814                         sl = & (*sl)->next;
815                 if (cmp == 0) {
816                         symset_free(ss);
817                         return (*sl)->num;
818                 }
819
820                 s = malloc(sizeof(*s));
821                 s->ss = ss;
822                 s->num = g->nextset;
823                 g->nextset += 1;
824                 s->next = *sl;
825                 *sl = s;
826                 return s->num;
827         }
828
829 Finding a set by number is currently performed by a simple linear search.
830 If this turns out to hurt performance, we can store the sets in a dynamic
831 array like the productions.
832
833         static struct symset set_find(struct grammar *g, int num)
834         {
835                 struct setlist *sl = g->sets;
836                 while (sl && sl->num != num)
837                         sl = sl->next;
838                 return sl->ss;
839         }
840
841 ### Setting `nullable`
842
843 We set `nullable` on the head symbol for any production for which all
844 the body symbols (if any) are nullable.  As this is a recursive
845 definition, any change in the `nullable` setting means that we need to
846 re-evaluate where it needs to be set.
847
848 We simply loop around performing the same calculations until no more
849 changes happen.
850
851 ###### symbol fields
852         int nullable;
853
854 ###### functions
855         static void set_nullable(struct grammar *g)
856         {
857                 int check_again = 1;
858                 while (check_again) {
859                         int p;
860                         check_again = 0;
861                         for (p = 0; p < g->production_count; p++) {
862                                 struct production *pr = g->productions[p];
863                                 int s;
864
865                                 if (pr->head->nullable)
866                                         continue;
867                                 for (s = 0; s < pr->body_size; s++)
868                                         if (! pr->body[s]->nullable)
869                                                 break;
870                                 if (s == pr->body_size) {
871                                         pr->head->nullable = 1;
872                                         check_again = 1;
873                                 }
874                         }
875                 }
876         }
877
878 ### Setting `line_like`
879
880 In order to be able to ignore newline tokens when not relevant, but
881 still include them in the parse when needed, we will need to know
882 which states can start a "line-like" section of code.  We ignore
883 newlines when there is an indent since the most recent start of a
884 line-like symbol.
885
886 A "line_like" symbol is simply any symbol that can derive a NEWLINE.
887 If a symbol cannot derive a NEWLINE, then it is only part of a line -
888 so is word-like.  If it can derive a NEWLINE, then we consider it to
889 be like a line.
890
891 Clearly the `TK_newline` token can derive a NEWLINE.  Any symbol which
892 is the head of a production that contains a line_like symbol is also a
893 line-like symbol.  We use a new field `line_like` to record this
894 attribute of symbols, and compute it in a repetitive manner similar to
895 `set_nullable`.
896
897 ###### symbol fields
898         int line_like;
899
900 ###### functions
901         static void set_line_like(struct grammar *g)
902         {
903                 int check_again = 1;
904                 g->symtab[TK_newline]->line_like = 1;
905                 while (check_again) {
906                         int p;
907                         check_again = 0;
908                         for (p = 0; p < g->production_count; p++) {
909                                 struct production *pr = g->productions[p];
910                                 int s;
911
912                                 if (pr->head->line_like)
913                                         continue;
914
915                                 for (s = 0 ; s < pr->body_size; s++) {
916                                         if (pr->body[s]->line_like) {
917                                                 pr->head->line_like = 1;
918                                                 check_again = 1;
919                                                 break;
920                                         }
921                                 }
922                         }
923                 }
924         }
925
926 ### Building the `first` sets
927
928 When calculating what can follow a particular non-terminal, we will need to
929 know what the "first" terminal in any subsequent non-terminal might be.  So
930 we calculate the `first` set for every non-terminal and store them in an
931 array.  We don't bother recording the "first" set for terminals as they are
932 trivial.
933
934 As the "first" for one symbol might depend on the "first" of another,
935 we repeat the calculations until no changes happen, just like with
936 `set_nullable`.  This makes use of the fact that `symset_union`
937 reports if any change happens.
938
939 The core of this, which finds the "first" of part of a production body,
940 will be reused for computing the "follow" sets, so we split it out
941 into a separate function.
942
943 ###### grammar fields
944         struct symset *first;
945
946 ###### functions
947
948         static int add_first(struct production *pr, int start,
949                              struct symset *target, struct grammar *g,
950                              int *to_end)
951         {
952                 int s;
953                 int changed = 0;
954                 for (s = start; s < pr->body_size; s++) {
955                         struct symbol *bs = pr->body[s];
956                         if (bs->type == Terminal) {
957                                 if (symset_find(target, bs->num) < 0) {
958                                         symset_add(target, bs->num, 0);
959                                         changed = 1;
960                                 }
961                                 break;
962                         } else if (symset_union(target, &g->first[bs->num]))
963                                 changed = 1;
964                         if (!bs->nullable)
965                                 break;
966                 }
967                 if (to_end)
968                         *to_end = (s == pr->body_size);
969                 return changed;
970         }
971
972         static void build_first(struct grammar *g)
973         {
974                 int check_again = 1;
975                 int s;
976                 g->first = calloc(g->num_syms, sizeof(g->first[0]));
977                 for (s = 0; s < g->num_syms; s++)
978                         g->first[s] = INIT_SYMSET;
979
980                 while (check_again) {
981                         int p;
982                         check_again = 0;
983                         for (p = 0; p < g->production_count; p++) {
984                                 struct production *pr = g->productions[p];
985                                 struct symset *head = &g->first[pr->head->num];
986
987                                 if (add_first(pr, 0, head, g, NULL))
988                                         check_again = 1;
989                         }
990                 }
991         }
992
993 ### Building the `follow` sets.
994
995 There are two different situations when we will want to generate "follow"
996 sets.  If we are doing an SLR analysis, we want to generate a single
997 "follow" set for each non-terminal in the grammar.  That is what is
998 happening here.  If we are doing an LALR or LR analysis we will want
999 to generate a separate "LA" set for each item.  We do that later
1000 in state generation.
1001
1002 There are two parts to generating a "follow" set.  Firstly we look at
1003 every place that any non-terminal appears in the body of any
1004 production, and we find the set of possible "first" symbols after
1005 there.  This is done using `add_first` above and only needs to be done
1006 once as the "first" sets are now stable and will not change.
1007
1008 ###### follow code
1009
1010         for (p = 0; p < g->production_count; p++) {
1011                 struct production *pr = g->productions[p];
1012                 int b;
1013
1014                 for (b = 0; b < pr->body_size - 1; b++) {
1015                         struct symbol *bs = pr->body[b];
1016                         if (bs->type == Terminal)
1017                                 continue;
1018                         add_first(pr, b+1, &g->follow[bs->num], g, NULL);
1019                 }
1020         }
1021
1022 The second part is to add the "follow" set of the head of a production
1023 to the "follow" sets of the final symbol in the production, and any
1024 other symbol which is followed only by `nullable` symbols.  As this
1025 depends on "follow" itself we need to repeatedly perform the process
1026 until no further changes happen.
1027
1028 ###### follow code
1029
1030         for (again = 0, p = 0;
1031              p < g->production_count;
1032              p < g->production_count-1
1033                 ? p++ : again ? (again = 0, p = 0)
1034                               : p++) {
1035                 struct production *pr = g->productions[p];
1036                 int b;
1037
1038                 for (b = pr->body_size - 1; b >= 0; b--) {
1039                         struct symbol *bs = pr->body[b];
1040                         if (bs->type == Terminal)
1041                                 break;
1042                         if (symset_union(&g->follow[bs->num],
1043                                          &g->follow[pr->head->num]))
1044                                 again = 1;
1045                         if (!bs->nullable)
1046                                 break;
1047                 }
1048         }
1049
1050 We now just need to create and initialise the `follow` list to get a
1051 complete function.
1052
1053 ###### grammar fields
1054         struct symset *follow;
1055
1056 ###### functions
1057         static void build_follow(struct grammar *g)
1058         {
1059                 int s, again, p;
1060                 g->follow = calloc(g->num_syms, sizeof(g->follow[0]));
1061                 for (s = 0; s < g->num_syms; s++)
1062                         g->follow[s] = INIT_SYMSET;
1063                 ## follow code
1064         }
1065
1066 ### Building itemsets and states
1067
1068 There are three different levels of detail that can be chosen for
1069 building the itemsets and states for the LR grammar.  They are:
1070
1071 1. LR(0) or SLR(1), where no look-ahead is considered.
1072 2. LALR(1) where we build look-ahead sets with each item and merge
1073    the LA sets when we find two paths to the same "kernel" set of items.
1074 3. LR(1) where different look-ahead for any item in the set means
1075    a different state must be created.
1076
1077 ###### forward declarations
1078         enum grammar_type { LR0, LR05, SLR, LALR, LR1 };
1079
1080 We need to be able to look through existing states to see if a newly
1081 generated state already exists.  For now we use a simple sorted linked
1082 list.
1083
1084 An item is a pair of numbers: the production number and the position of
1085 "DOT", which is an index into the body of the production.
1086 As the numbers are not enormous we can combine them into a single "short"
1087 and store them in a `symset` - 4 bits for "DOT" and 12 bits for the
1088 production number (so 4000 productions with maximum of 15 symbols in the
1089 body).
1090
1091 Comparing the itemsets will be a little different to comparing symsets
1092 as we want to do the lookup after generating the "kernel" of an
1093 itemset, so we need to ignore the offset=zero items which are added during
1094 completion.
1095
1096 To facilitate this, we modify the "DOT" number so that "0" sorts to
1097 the end of the list in the symset, and then only compare items before
1098 the first "0".
1099
1100 ###### declarations
1101         static inline unsigned short item_num(int production, int index)
1102         {
1103                 return production | ((31-index) << 11);
1104         }
1105         static inline int item_prod(unsigned short item)
1106         {
1107                 return item & 0x7ff;
1108         }
1109         static inline int item_index(unsigned short item)
1110         {
1111                 return (31-(item >> 11)) & 0x1f;
1112         }
1113
1114 For LR(1) analysis we need to compare not just the itemset in a state
1115 but also the LA sets.  As we assign each unique LA set a number, we
1116 can just compare the symset and the data values together.
1117
1118 ###### functions
1119         static int itemset_cmp(struct symset a, struct symset b,
1120                                enum grammar_type type)
1121         {
1122                 int i;
1123                 int av, bv;
1124
1125                 for (i = 0;
1126                      i < a.cnt && i < b.cnt &&
1127                      item_index(a.syms[i]) > 0 &&
1128                      item_index(b.syms[i]) > 0;
1129                      i++) {
1130                         int diff = a.syms[i] - b.syms[i];
1131                         if (diff)
1132                                 return diff;
1133                         if (type == LR1) {
1134                                 diff = a.data[i] - b.data[i];
1135                                 if (diff)
1136                                         return diff;
1137                         }
1138                 }
1139                 if (i == a.cnt || item_index(a.syms[i]) == 0)
1140                         av = -1;
1141                 else
1142                         av = a.syms[i];
1143                 if (i == b.cnt || item_index(b.syms[i]) == 0)
1144                         bv = -1;
1145                 else
1146                         bv = b.syms[i];
1147                 if (av - bv)
1148                         return av - bv;
1149                 if (type < LR1 || av == -1)
1150                         return 0;
1151                 return
1152                         a.data[i] - b.data[i];
1153         }
1154
1155 It will be helpful to know if an itemset has been "completed" or not,
1156 particularly for LALR where itemsets get merged, at which point they
1157 need to be consider for completion again.  So  a `completed` flag is needed.
1158
1159 For correct handling of `TK_newline` when parsing, we will need to
1160 know which states (itemsets) can occur at the start of a line, so we
1161 will record a `starts_line` flag too whenever DOT is at the start of a
1162 `line_like` symbol.
1163
1164 Finally, for handling `TK_out` we need to know whether productions in the
1165 current state started *before* the most recent indent.  A state
1166 doesn't usually keep details of individual productions, so we need to
1167 add one extra detail. `min_prefix` is the smallest non-zero number of
1168 symbols *before* DOT in any production in an itemset.  This will allow
1169 us to determine if the the most recent indent is sufficiently recent
1170 to cancel it against a `TK_out`.  If it was seen longer ago than the
1171 `min_prefix`, and if the current state cannot be reduced, then the
1172 indented section must have ended in the middle of a syntactic unit, so
1173 an error must be signaled.
1174
1175 And now we can build the list of itemsets.  The lookup routine returns
1176 both a success flag and a pointer to where in the list an insert
1177 should happen, so we don't need to search a second time.
1178
1179 ###### declarations
1180         struct itemset {
1181                 struct itemset *next;
1182                 short state;
1183                 struct symset items;
1184                 struct symset go_to;
1185                 enum assoc assoc;
1186                 unsigned short precedence;
1187                 char completed;
1188                 char starts_line;
1189                 int min_prefix;
1190         };
1191
1192 ###### grammar fields
1193         struct itemset *items;
1194         int states;
1195
1196 ###### functions
1197         static int itemset_find(struct grammar *g, struct itemset ***where,
1198                                 struct symset kernel, enum grammar_type type)
1199         {
1200                 struct itemset **ip;
1201
1202                 for (ip = &g->items; *ip ; ip = & (*ip)->next) {
1203                         struct itemset *i = *ip;
1204                         int diff;
1205                         diff = itemset_cmp(i->items, kernel, type);
1206                         if (diff < 0)
1207                                 continue;
1208                         if (diff > 0)
1209                                 break;
1210                         /* found */
1211                         *where = ip;
1212                         return 1;
1213                 }
1214                 *where = ip;
1215                 return 0;
1216         }
1217
1218 Adding an itemset may require merging the LA sets if LALR analysis is
1219 happening. If any new LA set adds any symbols that weren't in the old LA set, we
1220 clear the `completed` flag so that the dependants of this itemset will be
1221 recalculated and their LA sets updated.
1222
1223 `add_itemset` must consume the symsets it is passed, either by adding
1224 them to a data structure, of freeing them.
1225
1226         static int add_itemset(struct grammar *g, struct symset ss,
1227                                enum assoc assoc, unsigned short precedence,
1228                                enum grammar_type type)
1229         {
1230                 struct itemset **where, *is;
1231                 int i;
1232                 int found = itemset_find(g, &where, ss, type);
1233                 if (!found) {
1234                         is = calloc(1, sizeof(*is));
1235                         is->state = g->states;
1236                         g->states += 1;
1237                         is->items = ss;
1238                         is->assoc = assoc;
1239                         is->precedence = precedence;
1240                         is->next = *where;
1241                         is->go_to = INIT_DATASET;
1242                         *where = is;
1243                         return is->state;
1244                 }
1245                 is = *where;
1246                 if (type != LALR) {
1247                         symset_free(ss);
1248                         return is->state;
1249                 }
1250                 for (i = 0; i < ss.cnt; i++) {
1251                         struct symset temp = INIT_SYMSET, s;
1252                         if (ss.data[i] == is->items.data[i])
1253                                 continue;
1254                         s = set_find(g, is->items.data[i]);
1255                         symset_union(&temp, &s);
1256                         s = set_find(g, ss.data[i]);
1257                         if (symset_union(&temp, &s)) {
1258                                 is->items.data[i] = save_set(g, temp);
1259                                 is->completed = 0;
1260                         } else
1261                                 symset_free(temp);
1262                 }
1263                 symset_free(ss);
1264                 return is->state;
1265         }
1266
1267 #### The build
1268
1269 To build all the itemsets, we first insert the initial itemset made
1270 from production zero, complete each itemset, and then generate new
1271 itemsets from old until no new ones can be made.
1272
1273 Completing an itemset means finding all the items where "DOT" is followed by
1274 a nonterminal and adding "DOT=0" items for every production from that
1275 non-terminal - providing each item hasn't already been added.
1276
1277 If LA sets are needed, the LA set for each new item is found using
1278 `add_first` which was developed earlier for `FIRST` and `FOLLOW`.  This may
1279 be supplemented by the LA set for the item which produce the new item.
1280
1281 We also collect a set of all symbols which follow "DOT" (in `done`) as this
1282 is used in the next stage.
1283 If any of these symbols are flagged as `line_like`, then this
1284 state must be a `starts_line` state so now is a good time to record that.
1285
1286 When itemsets are created we assign a precedence to the itemset from
1287 the complete item, if there is one.  We ignore the possibility of
1288 there being two and don't (currently) handle precedence in such
1289 grammars.  When completing a grammar we ignore any item where DOT is
1290 followed by a terminal with a precedence lower (numerically higher)
1291 than that for the itemset.  Unless the terminal has right
1292 associativity, we also ignore items where the terminal has the same
1293 precedence.  The result is that unwanted items are still in the
1294 itemset, but the terminal doesn't get into the go to set, so the item
1295 is ineffective.
1296
1297 ###### complete itemset
1298         for (i = 0; i < is->items.cnt; i++) {
1299                 int p = item_prod(is->items.syms[i]);
1300                 int bs = item_index(is->items.syms[i]);
1301                 struct production *pr = g->productions[p];
1302                 int p2;
1303                 struct symbol *s;
1304                 struct symset LA = INIT_SYMSET;
1305                 unsigned short sn = 0;
1306
1307                 if (is->min_prefix == 0 ||
1308                     (bs > 0 && bs < is->min_prefix))
1309                         is->min_prefix = bs;
1310                 if (bs == pr->body_size)
1311                         continue;
1312                 s = pr->body[bs];
1313                 if (s->precedence && is->precedence &&
1314                     is->precedence < s->precedence)
1315                         /* This terminal has a low precedence and
1316                          * shouldn't be shifted
1317                          */
1318                         continue;
1319                 if (s->precedence && is->precedence &&
1320                     is->precedence == s->precedence && s->assoc != Right)
1321                         /* This terminal has a matching precedence and is
1322                          * not Right-associative, so we mustn't shift it.
1323                          */
1324                         continue;
1325                 if (symset_find(&done, s->num) < 0) {
1326                         symset_add(&done, s->num, 0);
1327                         if (s->line_like)
1328                                 is->starts_line = 1;
1329                 }
1330                 if (s->type != Nonterminal)
1331                         continue;
1332                 again = 1;
1333                 if (type >= LALR) {
1334                         // Need the LA set.
1335                         int to_end;
1336                         add_first(pr, bs+1, &LA, g, &to_end);
1337                         if (to_end) {
1338                                 struct symset ss = set_find(g, is->items.data[i]);
1339                                 symset_union(&LA, &ss);
1340                         }
1341                         sn = save_set(g, LA);
1342                         LA = set_find(g, sn);
1343                 }
1344
1345                 /* Add productions for this symbol */
1346                 for (p2 = s->first_production;
1347                      p2 < g->production_count &&
1348                       g->productions[p2]->head == s;
1349                      p2++) {
1350                         int itm = item_num(p2, 0);
1351                         int pos = symset_find(&is->items, itm);
1352                         if (pos < 0) {
1353                                 symset_add(&is->items, itm, sn);
1354                                 /* Will have re-ordered, so start
1355                                  * from beginning again */
1356                                 i = -1;
1357                         } else if (type >= LALR) {
1358                                 struct symset ss = set_find(g, is->items.data[pos]);
1359                                 struct symset tmp = INIT_SYMSET;
1360
1361                                 symset_union(&tmp, &ss);
1362                                 if (symset_union(&tmp, &LA)) {
1363                                         is->items.data[pos] = save_set(g, tmp);
1364                                         i = -1;
1365                                 }else
1366                                         symset_free(tmp);
1367                         }
1368                 }
1369         }
1370
1371 For each symbol we found (and placed in `done`) we collect all the items for
1372 which this symbol is next, and create a new itemset with "DOT" advanced over
1373 the symbol.  This is then added to the collection of itemsets (or merged
1374 with a pre-existing itemset).
1375
1376 ###### derive itemsets
1377         // Now we have a completed itemset, so we need to
1378         // compute all the 'next' itemsets and create them
1379         // if they don't exist.
1380         for (i = 0; i < done.cnt; i++) {
1381                 int j;
1382                 unsigned short state;
1383                 struct symbol *sym = g->symtab[done.syms[i]];
1384                 enum assoc assoc = Non;
1385                 unsigned short precedence = 0;
1386                 struct symset newitemset = INIT_SYMSET;
1387                 if (type >= LALR)
1388                         newitemset = INIT_DATASET;
1389
1390                 for (j = 0; j < is->items.cnt; j++) {
1391                         int itm = is->items.syms[j];
1392                         int p = item_prod(itm);
1393                         int bp = item_index(itm);
1394                         struct production *pr = g->productions[p];
1395                         unsigned short la = 0;
1396                         int pos;
1397
1398                         if (bp == pr->body_size)
1399                                 continue;
1400                         if (pr->body[bp] != sym)
1401                                 continue;
1402                         if (type >= LALR)
1403                                 la = is->items.data[j];
1404                         pos = symset_find(&newitemset, pr->head->num);
1405                         if (bp + 1 == pr->body_size &&
1406                             pr->precedence > 0 &&
1407                             (precedence == 0 ||
1408                              pr->precedence < precedence)) {
1409                                 // new itemset is reducible and has a precedence.
1410                                 precedence = pr->precedence;
1411                                 assoc = pr->assoc;
1412                         }
1413                         if (pos < 0)
1414                                 symset_add(&newitemset, item_num(p, bp+1), la);
1415                         else if (type >= LALR) {
1416                                 // Need to merge la set.
1417                                 int la2 = newitemset.data[pos];
1418                                 if (la != la2) {
1419                                         struct symset ss = set_find(g, la2);
1420                                         struct symset LA = INIT_SYMSET;
1421                                         symset_union(&LA, &ss);
1422                                         ss = set_find(g, la);
1423                                         if (symset_union(&LA, &ss))
1424                                                 newitemset.data[pos] = save_set(g, LA);
1425                                         else
1426                                                 symset_free(LA);
1427                                 }
1428                         }
1429                 }
1430                 state = add_itemset(g, newitemset, assoc, precedence, type);
1431                 if (symset_find(&is->go_to, done.syms[i]) < 0)
1432                         symset_add(&is->go_to, done.syms[i], state);
1433         }
1434
1435 All that is left is to create the initial itemset from production zero, and
1436 with `TK_eof` as the LA set.
1437
1438 ###### functions
1439         static void build_itemsets(struct grammar *g, enum grammar_type type)
1440         {
1441                 struct symset first = INIT_SYMSET;
1442                 struct itemset *is;
1443                 int again;
1444                 unsigned short la = 0;
1445                 if (type >= LALR) {
1446                         // LA set just has eof
1447                         struct symset eof = INIT_SYMSET;
1448                         symset_add(&eof, TK_eof, 0);
1449                         la = save_set(g, eof);
1450                         first = INIT_DATASET;
1451                 }
1452                 // production 0, offset 0 (with no data)
1453                 symset_add(&first, item_num(0, 0), la);
1454                 add_itemset(g, first, Non, 0, type);
1455                 for (again = 0, is = g->items;
1456                      is;
1457                      is = is->next ?: again ? (again = 0, g->items) : NULL) {
1458                         int i;
1459                         struct symset done = INIT_SYMSET;
1460                         if (is->completed)
1461                                 continue;
1462                         is->completed = 1;
1463                         again = 1;
1464                         ## complete itemset
1465                         ## derive itemsets
1466                         symset_free(done);
1467                 }
1468         }
1469
1470 ### Completing the analysis.
1471
1472 The exact process of analysis depends on which level was requested.  For
1473 `LR0` and `LR05` we don't need first and follow sets at all.  For `LALR` and
1474 `LR1` we need first, but not follow.  For `SLR` we need both.
1475
1476 We don't build the "action" tables that you might expect as the parser
1477 doesn't use them.  They will be calculated to some extent if needed for
1478 a report.
1479
1480 Once we have built everything we allocate arrays for the two lists:
1481 symbols and itemsets.  This allows more efficient access during reporting.
1482 The symbols are grouped as terminals and non-terminals and we record the
1483 changeover point in `first_nonterm`.
1484
1485 ###### grammar fields
1486         struct symbol **symtab;
1487         struct itemset **statetab;
1488         int first_nonterm;
1489
1490 ###### grammar_analyse
1491
1492         static void grammar_analyse(struct grammar *g, enum grammar_type type)
1493         {
1494                 struct symbol *s;
1495                 struct itemset *is;
1496                 int snum = TK_reserved;
1497                 for (s = g->syms; s; s = s->next)
1498                         if (s->num < 0 && s->type == Terminal) {
1499                                 s->num = snum;
1500                                 snum++;
1501                         }
1502                 g->first_nonterm = snum;
1503                 for (s = g->syms; s; s = s->next)
1504                         if (s->num < 0) {
1505                                 s->num = snum;
1506                                 snum++;
1507                         }
1508                 g->num_syms = snum;
1509                 g->symtab = calloc(g->num_syms, sizeof(g->symtab[0]));
1510                 for (s = g->syms; s; s = s->next)
1511                         g->symtab[s->num] = s;
1512
1513                 set_nullable(g);
1514                 set_line_like(g);
1515                 if (type >= SLR)
1516                         build_first(g);
1517
1518                 if (type == SLR)
1519                         build_follow(g);
1520
1521                 build_itemsets(g, type);
1522
1523                 g->statetab = calloc(g->states, sizeof(g->statetab[0]));
1524                 for (is = g->items; is ; is = is->next)
1525                         g->statetab[is->state] = is;
1526         }
1527
1528 ## Reporting on the Grammar
1529
1530 The purpose of the report is to give the grammar developer insight into
1531 how the grammar parser will work.  It is basically a structured dump of
1532 all the tables that have been generated, plus a description of any conflicts.
1533
1534 ###### grammar_report
1535         static int grammar_report(struct grammar *g, enum grammar_type type)
1536         {
1537                 report_symbols(g);
1538                 if (g->follow)
1539                         report_follow(g);
1540                 report_itemsets(g);
1541                 return report_conflicts(g, type);
1542         }
1543
1544 Firstly we have the complete list of symbols, together with the
1545 "FIRST" set if that was generated.  We add a mark to each symbol to
1546 show if it can end in a newline (`>`), if it is considered to be
1547 "line-like" (`<`), or if it is nullable (`.`).
1548
1549 ###### functions
1550
1551         static void report_symbols(struct grammar *g)
1552         {
1553                 int n;
1554                 if (g->first)
1555                         printf("SYMBOLS + FIRST:\n");
1556                 else
1557                         printf("SYMBOLS:\n");
1558
1559                 for (n = 0; n < g->num_syms; n++) {
1560                         struct symbol *s = g->symtab[n];
1561                         if (!s)
1562                                 continue;
1563
1564                         printf(" %c%c%3d%c: ",
1565                                s->nullable ? '.':' ',
1566                                s->line_like ? '<':' ',
1567                                s->num, symtypes[s->type]);
1568                         prtxt(s->name);
1569                         if (s->precedence)
1570                                 printf(" (%d%s)", s->precedence,
1571                                        assoc_names[s->assoc]);
1572
1573                         if (g->first && s->type == Nonterminal) {
1574                                 int j;
1575                                 char c = ':';
1576                                 for (j = 0; j < g->first[n].cnt; j++) {
1577                                         printf("%c ", c);
1578                                         c = ',';
1579                                         prtxt(g->symtab[g->first[n].syms[j]]->name);
1580                                 }
1581                         }
1582                         printf("\n");
1583                 }
1584         }
1585
1586 Then we have the follow sets if they were computed.
1587
1588         static void report_follow(struct grammar *g)
1589         {
1590                 int n;
1591                 printf("FOLLOW:\n");
1592                 for (n = 0; n < g->num_syms; n++)
1593                         if (g->follow[n].cnt) {
1594                                 int j;
1595                                 char c = ':';
1596                                 printf("  ");
1597                                 prtxt(g->symtab[n]->name);
1598                                 for (j = 0; j < g->follow[n].cnt; j++) {
1599                                         printf("%c ", c);
1600                                         c = ',';
1601                                         prtxt(g->symtab[g->follow[n].syms[j]]->name);
1602                                 }
1603                                 printf("\n");
1604                         }
1605         }
1606
1607 And finally the item sets.  These include the GO TO tables and, for
1608 LALR and LR1, the LA set for each item.  Lots of stuff, so we break
1609 it up a bit.  First the items, with production number and associativity.
1610
1611         static void report_item(struct grammar *g, int itm)
1612         {
1613                 int p = item_prod(itm);
1614                 int dot = item_index(itm);
1615                 struct production *pr = g->productions[p];
1616                 int i;
1617
1618                 printf("    ");
1619                 prtxt(pr->head->name);
1620                 printf(" ->");
1621                 for (i = 0; i < pr->body_size; i++) {
1622                         printf(" %s", (dot == i ? ". ": ""));
1623                         prtxt(pr->body[i]->name);
1624                 }
1625                 if (dot == pr->body_size)
1626                         printf(" .");
1627                 printf(" [%d]", p);
1628                 if (pr->precedence && dot == pr->body_size)
1629                         printf(" (%d%s)", pr->precedence,
1630                                assoc_names[pr->assoc]);
1631                 if (dot < pr->body_size &&
1632                     pr->body[dot]->precedence) {
1633                         struct symbol *s = pr->body[dot];
1634                         printf(" [%d%s]", s->precedence,
1635                                assoc_names[s->assoc]);
1636                 }
1637                 printf("\n");
1638         }
1639
1640 The LA sets which are (possibly) reported with each item:
1641
1642         static void report_la(struct grammar *g, int lanum)
1643         {
1644                 struct symset la = set_find(g, lanum);
1645                 int i;
1646                 char c = ':';
1647
1648                 printf("        LOOK AHEAD(%d)", lanum);
1649                 for (i = 0; i < la.cnt; i++) {
1650                         printf("%c ", c);
1651                         c = ',';
1652                         prtxt(g->symtab[la.syms[i]]->name);
1653                 }
1654                 printf("\n");
1655         }
1656
1657 Then the go to sets:
1658
1659         static void report_goto(struct grammar *g, struct symset gt)
1660         {
1661                 int i;
1662                 printf("    GOTO:\n");
1663
1664                 for (i = 0; i < gt.cnt; i++) {
1665                         printf("      ");
1666                         prtxt(g->symtab[gt.syms[i]]->name);
1667                         printf(" -> %d\n", gt.data[i]);
1668                 }
1669         }
1670
1671 Now we can report all the item sets complete with items, LA sets, and GO TO.
1672
1673         static void report_itemsets(struct grammar *g)
1674         {
1675                 int s;
1676                 printf("ITEM SETS(%d)\n", g->states);
1677                 for (s = 0; s < g->states; s++) {
1678                         int j;
1679                         struct itemset *is = g->statetab[s];
1680                         printf("  Itemset %d:%s min prefix=%d",
1681                                s, is->starts_line?" (startsline)":"", is->min_prefix);
1682                         if (is->precedence)
1683                                 printf(" %d%s", is->precedence, assoc_names[is->assoc]);
1684                         printf("\n");
1685                         for (j = 0; j < is->items.cnt; j++) {
1686                                 report_item(g, is->items.syms[j]);
1687                                 if (is->items.data != NO_DATA)
1688                                         report_la(g, is->items.data[j]);
1689                         }
1690                         report_goto(g, is->go_to);
1691                 }
1692         }
1693
1694 ### Reporting conflicts
1695
1696 Conflict detection varies a lot among different analysis levels.  However
1697 LR0 and LR0.5 are quite similar - having no follow sets, and SLR, LALR and
1698 LR1 are also similar as they have FOLLOW or LA sets.
1699
1700 ###### functions
1701
1702         ## conflict functions
1703
1704         static int report_conflicts(struct grammar *g, enum grammar_type type)
1705         {
1706                 int cnt = 0;
1707                 printf("Conflicts:\n");
1708                 if (type < SLR)
1709                         cnt = conflicts_lr0(g, type);
1710                 else
1711                         cnt = conflicts_slr(g, type);
1712                 if (cnt == 0)
1713                         printf(" - no conflicts\n");
1714                 return cnt;
1715         }
1716
1717 LR0 conflicts are any state which have both a reducible item and
1718 a shiftable item, or two reducible items.
1719
1720 LR05 conflicts only occur if two possible reductions exist,
1721 as shifts always over-ride reductions.
1722
1723 ###### conflict functions
1724         static int conflicts_lr0(struct grammar *g, enum grammar_type type)
1725         {
1726                 int i;
1727                 int cnt = 0;
1728                 for (i = 0; i < g->states; i++) {
1729                         struct itemset *is = g->statetab[i];
1730                         int last_reduce = -1;
1731                         int prev_reduce = -1;
1732                         int last_shift = -1;
1733                         int j;
1734                         if (!is)
1735                                 continue;
1736                         for (j = 0; j < is->items.cnt; j++) {
1737                                 int itm = is->items.syms[j];
1738                                 int p = item_prod(itm);
1739                                 int bp = item_index(itm);
1740                                 struct production *pr = g->productions[p];
1741
1742                                 if (bp == pr->body_size) {
1743                                         prev_reduce = last_reduce;
1744                                         last_reduce = j;
1745                                         continue;
1746                                 }
1747                                 if (pr->body[bp]->type == Terminal)
1748                                         last_shift = j;
1749                         }
1750                         if (type == LR0 && last_reduce >= 0 && last_shift >= 0) {
1751                                 printf("  State %d has both SHIFT and REDUCE:\n", i);
1752                                 report_item(g, is->items.syms[last_shift]);
1753                                 report_item(g, is->items.syms[last_reduce]);
1754                                 cnt++;
1755                         }
1756                         if (prev_reduce >= 0) {
1757                                 printf("  State %d has 2 (or more) reducible items\n", i);
1758                                 report_item(g, is->items.syms[prev_reduce]);
1759                                 report_item(g, is->items.syms[last_reduce]);
1760                                 cnt++;
1761                         }
1762                 }
1763                 return cnt;
1764         }
1765
1766 SLR, LALR, and LR1 conflicts happen if two reducible items have over-lapping
1767 look ahead, or if a symbol in a look-ahead can be shifted.  They differ only
1768 in the source of the look ahead set.
1769
1770 We build two datasets to reflect the "action" table: one which maps
1771 terminals to items where that terminal could be shifted and another
1772 which maps terminals to items that could be reduced when the terminal
1773 is in look-ahead.  We report when we get conflicts between the two.
1774
1775 As a special case, if we find a SHIFT/REDUCE conflict, where a
1776 terminal that could be shifted is in the lookahead set of some
1777 reducable item, then set check if the reducable item also have
1778 `TK_newline` in its lookahead set.  If it does, then a newline will
1779 force and reduction, but anything else can reasonably be shifts, so
1780 that isn't really a conflict.  Such apparent conflicts do not get
1781 reported.  This will not affect a "tradtional" grammar that does not
1782 include newlines as token.
1783
1784         static int conflicts_slr(struct grammar *g, enum grammar_type type)
1785         {
1786                 int i;
1787                 int cnt = 0;
1788
1789                 for (i = 0; i < g->states; i++) {
1790                         struct itemset *is = g->statetab[i];
1791                         struct symset shifts = INIT_DATASET;
1792                         struct symset reduce = INIT_DATASET;
1793                         int j;
1794                         if (!is)
1795                                 continue;
1796                         /* First collect the shifts */
1797                         for (j = 0; j < is->items.cnt; j++) {
1798                                 unsigned short itm = is->items.syms[j];
1799                                 int p = item_prod(itm);
1800                                 int bp = item_index(itm);
1801                                 struct production *pr = g->productions[p];
1802
1803                                 if (bp < pr->body_size &&
1804                                     pr->body[bp]->type == Terminal) {
1805                                         /* shiftable */
1806                                         int sym = pr->body[bp]->num;
1807                                         if (symset_find(&shifts, sym) < 0)
1808                                                 symset_add(&shifts, sym, itm);
1809                                 }
1810                         }
1811                         /* Now look for reductions and conflicts */
1812                         for (j = 0; j < is->items.cnt; j++) {
1813                                 unsigned short itm = is->items.syms[j];
1814                                 int p = item_prod(itm);
1815                                 int bp = item_index(itm);
1816                                 struct production *pr = g->productions[p];
1817
1818                                 if (bp < pr->body_size)
1819                                         continue;
1820                                 /* reducible */
1821                                 struct symset la;
1822                                 if (type == SLR)
1823                                         la = g->follow[pr->head->num];
1824                                 else
1825                                         la = set_find(g, is->items.data[j]);
1826                                 int k;
1827                                 for (k = 0; k < la.cnt; k++) {
1828                                         int pos = symset_find(&shifts, la.syms[k]);
1829                                         if (pos >= 0 && symset_find(&la, TK_newline) < 0) {
1830                                                 printf("  State %d has SHIFT/REDUCE conflict on ", i);
1831                                                 prtxt(g->symtab[la.syms[k]]->name);
1832                                                 printf(":\n");
1833                                                 report_item(g, shifts.data[pos]);
1834                                                 report_item(g, itm);
1835                                                 cnt++;
1836                                         }
1837                                         pos = symset_find(&reduce, la.syms[k]);
1838                                         if (pos < 0) {
1839                                                 symset_add(&reduce, la.syms[k], itm);
1840                                                 continue;
1841                                         }
1842                                         printf("  State %d has REDUCE/REDUCE conflict on ", i);
1843                                         prtxt(g->symtab[la.syms[k]]->name);
1844                                         printf(":\n");
1845                                         report_item(g, itm);
1846                                         report_item(g, reduce.data[pos]);
1847                                         cnt++;
1848                                 }
1849                         }
1850                         symset_free(shifts);
1851                         symset_free(reduce);
1852                 }
1853                 return cnt;
1854         }
1855
1856 ## Generating the parser
1857
1858 The exported part of the parser is the `parse_XX` function, where the name
1859 `XX` is based on the name of the parser files.
1860
1861 This takes a `code_node`, a partially initialized `token_config`, and an
1862 optional `FILE` to send tracing to.  The `token_config` gets the list of
1863 known words added and then is used with the `code_node` to initialize the
1864 scanner.
1865
1866 `parse_XX` then calls the library function `parser_run` to actually complete
1867 the parse.  This needs the `states` table and function to call the various
1868 pieces of code provided in the grammar file, so they are generated first.
1869
1870 ###### parser_generate
1871
1872         static void gen_parser(FILE *f, struct grammar *g, char *file, char *name)
1873         {
1874                 gen_known(f, g);
1875                 gen_non_term(f, g);
1876                 gen_goto(f, g);
1877                 gen_states(f, g);
1878                 gen_reduce(f, g, file);
1879                 gen_free(f, g);
1880
1881                 fprintf(f, "#line 0 \"gen_parser\"\n");
1882                 fprintf(f, "void *parse_%s(struct code_node *code, struct token_config *config, FILE *trace)\n",
1883                         name);
1884                 fprintf(f, "{\n");
1885                 fprintf(f, "\tstruct token_state *tokens;\n");
1886                 fprintf(f, "\tconfig->words_marks = known;\n");
1887                 fprintf(f, "\tconfig->known_count = sizeof(known)/sizeof(known[0]);\n");
1888                 fprintf(f, "\tconfig->ignored |= (1 << TK_line_comment) | (1 << TK_block_comment);\n");
1889                 fprintf(f, "\ttokens = token_open(code, config);\n");
1890                 fprintf(f, "\tvoid *rv = parser_run(tokens, states, do_reduce, do_free, trace, non_term, config);\n");
1891                 fprintf(f, "\ttoken_close(tokens);\n");
1892                 fprintf(f, "\treturn rv;\n");
1893                 fprintf(f, "}\n\n");
1894         }
1895
1896 ### Known words table
1897
1898 The known words table is simply an array of terminal symbols.
1899 The table of nonterminals used for tracing is a similar array.
1900
1901 ###### functions
1902
1903         static void gen_known(FILE *f, struct grammar *g)
1904         {
1905                 int i;
1906                 fprintf(f, "#line 0 \"gen_known\"\n");
1907                 fprintf(f, "static const char *known[] = {\n");
1908                 for (i = TK_reserved;
1909                      i < g->num_syms && g->symtab[i]->type == Terminal;
1910                      i++)
1911                         fprintf(f, "\t\"%.*s\",\n", g->symtab[i]->name.len,
1912                                 g->symtab[i]->name.txt);
1913                 fprintf(f, "};\n\n");
1914         }
1915
1916         static void gen_non_term(FILE *f, struct grammar *g)
1917         {
1918                 int i;
1919                 fprintf(f, "#line 0 \"gen_non_term\"\n");
1920                 fprintf(f, "static const char *non_term[] = {\n");
1921                 for (i = TK_reserved;
1922                      i < g->num_syms;
1923                      i++)
1924                         if (g->symtab[i]->type == Nonterminal)
1925                                 fprintf(f, "\t\"%.*s\",\n", g->symtab[i]->name.len,
1926                                         g->symtab[i]->name.txt);
1927                 fprintf(f, "};\n\n");
1928         }
1929
1930 ### States and the goto tables.
1931
1932 For each state we record the goto table, the reducible production if
1933 there is one, or a symbol to shift for error recovery.
1934 Some of the details of the reducible production are stored in the
1935 `do_reduce` function to come later.  Here we store the production number,
1936 the body size (useful for stack management) and the resulting symbol (useful
1937 for knowing how to free data later).
1938
1939 The go to table is stored in a simple array of `sym` and corresponding
1940 `state`.
1941
1942 ###### exported types
1943
1944         struct lookup {
1945                 short sym;
1946                 short state;
1947         };
1948         struct state {
1949                 short go_to_cnt;
1950                 const struct lookup * go_to;
1951                 short reduce_prod;
1952                 short reduce_size;
1953                 short reduce_sym;
1954                 short starts_line;
1955                 short min_prefix;
1956         };
1957
1958 ###### functions
1959
1960         static void gen_goto(FILE *f, struct grammar *g)
1961         {
1962                 int i;
1963                 fprintf(f, "#line 0 \"gen_goto\"\n");
1964                 for (i = 0; i < g->states; i++) {
1965                         int j;
1966                         fprintf(f, "static const struct lookup goto_%d[] = {\n",
1967                                 i);
1968                         struct symset gt = g->statetab[i]->go_to;
1969                         for (j = 0; j < gt.cnt; j++)
1970                                 fprintf(f, "\t{ %d, %d },\n",
1971                                         gt.syms[j], gt.data[j]);
1972                         fprintf(f, "};\n");
1973                 }
1974         }
1975
1976 ###### functions
1977
1978         static void gen_states(FILE *f, struct grammar *g)
1979         {
1980                 int i;
1981                 fprintf(f, "#line 0 \"gen_states\"\n");
1982                 fprintf(f, "static const struct state states[] = {\n");
1983                 for (i = 0; i < g->states; i++) {
1984                         struct itemset *is = g->statetab[i];
1985                         int j, prod = -1, prod_len;
1986
1987                         for (j = 0; j < is->items.cnt; j++) {
1988                                 int itm = is->items.syms[j];
1989                                 int p = item_prod(itm);
1990                                 int bp = item_index(itm);
1991                                 struct production *pr = g->productions[p];
1992
1993                                 if (bp < pr->body_size)
1994                                         continue;
1995                                 /* This is what we reduce */
1996                                 if (prod < 0 || prod_len < pr->body_size) {
1997                                         prod = p;
1998                                         prod_len = pr->body_size;
1999                                 }
2000                         }
2001
2002                         if (prod >= 0)
2003                                 fprintf(f, "\t[%d] = { %d, goto_%d, %d, %d, %d, %d, %d },\n",
2004                                         i, is->go_to.cnt, i, prod,
2005                                         g->productions[prod]->body_size,
2006                                         g->productions[prod]->head->num,
2007                                         is->starts_line, is->min_prefix);
2008                         else
2009                                 fprintf(f, "\t[%d] = { %d, goto_%d, -1, -1, -1, %d, %d },\n",
2010                                         i, is->go_to.cnt, i,
2011                                         is->starts_line, is->min_prefix);
2012                 }
2013                 fprintf(f, "};\n\n");
2014         }
2015
2016 ### The `do_reduce` function and the code
2017
2018 When the parser engine decides to reduce a production, it calls `do_reduce`.
2019 This has two functions.
2020
2021 Firstly, if a non-NULL `trace` file is passed, it prints out details of the
2022 production being reduced.  Secondly it runs the code that was included with
2023 the production if any.
2024
2025 This code needs to be able to store data somewhere.  Rather than requiring
2026 `do_reduce` to `malloc` that "somewhere", we pass in a large buffer and have
2027 `do_reduce` return the size to be saved.
2028
2029 In order for the code to access "global" context, we pass in the
2030 "config" pointer that was passed to parser function.  If the `struct
2031 token_config` is embedded in some larger structure, the reducing code
2032 can access the larger structure using pointer manipulation.
2033
2034 The code fragment requires translation when written out.  Any `$N` needs to
2035 be converted to a reference either to that buffer (if `$0`) or to the
2036 structure returned by a previous reduction.  These pointers need to be cast
2037 to the appropriate type for each access.  All this is handled in
2038 `gen_code`.
2039
2040 `gen_code` also allows symbol references to contain a '`<`' as in '`$<2`'.
2041 This applied only to symbols with references (or pointers), not those with structures.
2042 The `<` implies that the reference it being moved out, so the object will not be
2043 automatically freed.  This is equivalent to assigning `NULL` to the pointer.
2044
2045 ###### functions
2046
2047         static void gen_code(struct production *p, FILE *f, struct grammar *g)
2048         {
2049                 char *c;
2050                 char *used = calloc(1, p->body_size);
2051                 int i;
2052
2053                 fprintf(f, "\t\t\t");
2054                 for (c = p->code.txt; c < p->code.txt + p->code.len; c++) {
2055                         int n;
2056                         int use = 0;
2057                         if (*c != '$') {
2058                                 fputc(*c, f);
2059                                 if (*c == '\n')
2060                                         fputs("\t\t\t", f);
2061                                 continue;
2062                         }
2063                         c++;
2064                         if (*c == '<') {
2065                                 use = 1;
2066                                 c++;
2067                         }
2068                         if (*c < '0' || *c > '9') {
2069                                 if (use)
2070                                         fputc('<', f);
2071                                 fputc(*c, f);
2072                                 continue;
2073                         }
2074                         n = *c - '0';
2075                         while (c[1] >= '0' && c[1] <= '9') {
2076                                 c += 1;
2077                                 n = n * 10 + *c - '0';
2078                         }
2079                         if (n == 0)
2080                                 fprintf(f, "(*(struct %.*s*%s)ret)",
2081                                         p->head->struct_name.len,
2082                                         p->head->struct_name.txt,
2083                                         p->head->isref ? "*":"");
2084                         else if (n > p->body_size)
2085                                 fprintf(f, "$%d", n);
2086                         else if (p->body[n-1]->type == Terminal)
2087                                 fprintf(f, "(*(struct token *)body[%d])",
2088                                         n-1);
2089                         else if (p->body[n-1]->struct_name.txt == NULL)
2090                                 fprintf(f, "$%d", n);
2091                         else {
2092                                 fprintf(f, "(*(struct %.*s*%s)body[%d])",
2093                                         p->body[n-1]->struct_name.len,
2094                                         p->body[n-1]->struct_name.txt,
2095                                         p->body[n-1]->isref ? "*":"", n-1);
2096                                 used[n-1] = use;
2097                         }
2098                 }
2099                 fputs("\n", f);
2100                 for (i = 0; i < p->body_size; i++) {
2101                         if (p->body[i]->struct_name.txt &&
2102                             p->body[i]->isref &&
2103                             used[i])
2104                                 // assume this has been copied out
2105                                 fprintf(f, "\t\t*(void**)body[%d] = NULL;\n", i);
2106                 }
2107                 free(used);
2108         }
2109
2110 ###### functions
2111
2112         static void gen_reduce(FILE *f, struct grammar *g, char *file)
2113         {
2114                 int i;
2115                 fprintf(f, "#line 0 \"gen_reduce\"\n");
2116                 fprintf(f, "static int do_reduce(int prod, void **body, struct token_config *config, void *ret)\n");
2117                 fprintf(f, "{\n");
2118                 fprintf(f, "\tint ret_size = 0;\n");
2119
2120                 fprintf(f, "\tswitch(prod) {\n");
2121                 for (i = 0; i < g->production_count; i++) {
2122                         struct production *p = g->productions[i];
2123                         fprintf(f, "\tcase %d:\n", i);
2124
2125                         if (p->code.txt) {
2126                                 fprintf(f, "#line %d \"%s\"\n", p->code_line, file);
2127                                 gen_code(p, f, g);
2128                         }
2129
2130                         if (p->head->struct_name.txt)
2131                                 fprintf(f, "\t\tret_size = sizeof(struct %.*s%s);\n",
2132                                         p->head->struct_name.len,
2133                                         p->head->struct_name.txt,
2134                                         p->head->isref ? "*":"");
2135
2136                         fprintf(f, "\t\tbreak;\n");
2137                 }
2138                 fprintf(f, "\t}\n\treturn ret_size;\n}\n\n");
2139         }
2140
2141 ### `do_free`
2142
2143 As each non-terminal can potentially cause a different type of data
2144 structure to be allocated and filled in, we need to be able to free it when
2145 done.
2146
2147 It is particularly important to have fine control over freeing during error
2148 recovery where individual stack frames might need to be freed.
2149
2150 For this, the grammar author is required to defined a `free_XX` function for
2151 each structure that is used by a non-terminal.  `do_free` will call whichever
2152 is appropriate given a symbol number, and will call `free` (as is
2153 appropriate for tokens) on any terminal symbol.
2154
2155 ###### functions
2156
2157         static void gen_free(FILE *f, struct grammar *g)
2158         {
2159                 int i;
2160
2161                 fprintf(f, "#line 0 \"gen_free\"\n");
2162                 fprintf(f, "static void do_free(short sym, void *asn)\n");
2163                 fprintf(f, "{\n");
2164                 fprintf(f, "\tif (!asn) return;\n");
2165                 fprintf(f, "\tif (sym < %d) {\n", g->first_nonterm);
2166                 fprintf(f, "\t\tfree(asn);\n\t\treturn;\n\t}\n");
2167                 fprintf(f, "\tswitch(sym) {\n");
2168
2169                 for (i = 0; i < g->num_syms; i++) {
2170                         struct symbol *s = g->symtab[i];
2171                         if (!s ||
2172                             s->type != Nonterminal ||
2173                             s->struct_name.txt == NULL)
2174                                 continue;
2175
2176                         fprintf(f, "\tcase %d:\n", s->num);
2177                         if (s->isref) {
2178                                 fprintf(f, "\t\tfree_%.*s(*(void**)asn);\n",
2179                                         s->struct_name.len,
2180                                         s->struct_name.txt);
2181                                 fprintf(f, "\t\tfree(asn);\n");
2182                         } else
2183                                 fprintf(f, "\t\tfree_%.*s(asn);\n",
2184                                         s->struct_name.len,
2185                                         s->struct_name.txt);
2186                         fprintf(f, "\t\tbreak;\n");
2187                 }
2188                 fprintf(f, "\t}\n}\n\n");
2189         }
2190
2191 ## The main routine.
2192
2193 There are three key parts to the "main" function of parsergen: processing
2194 the arguments, loading the grammar file, and dealing with the grammar.
2195
2196 ### Argument processing.
2197
2198 Command line options allow the selection of analysis mode, name of output
2199 file, and whether or not a report should be generated.  By default we create
2200 a report only if no code output was requested.
2201
2202 The `parse_XX` function name uses the basename of the output file which
2203 should not have a suffix (`.c`).  `.c` is added to the given name for the
2204 code, and `.h` is added for the header (if header text is specifed in the
2205 grammar file).
2206
2207 ###### includes
2208         #include <getopt.h>
2209
2210 ###### declarations
2211         static const struct option long_options[] = {
2212                 { "LR0",        0, NULL, '0' },
2213                 { "LR05",       0, NULL, '5' },
2214                 { "SLR",        0, NULL, 'S' },
2215                 { "LALR",       0, NULL, 'L' },
2216                 { "LR1",        0, NULL, '1' },
2217                 { "tag",        1, NULL, 't' },
2218                 { "report",     0, NULL, 'R' },
2219                 { "output",     1, NULL, 'o' },
2220                 { NULL,         0, NULL, 0   }
2221         };
2222         const char *options = "05SL1t:Ro:";
2223
2224 ###### process arguments
2225         int opt;
2226         char *outfile = NULL;
2227         char *infile;
2228         char *name;
2229         char *tag = NULL;
2230         int report = 1;
2231         enum grammar_type type = LR05;
2232         while ((opt = getopt_long(argc, argv, options,
2233                                   long_options, NULL)) != -1) {
2234                 switch(opt) {
2235                 case '0':
2236                         type = LR0; break;
2237                 case '5':
2238                         type = LR05; break;
2239                 case 'S':
2240                         type = SLR; break;
2241                 case 'L':
2242                         type = LALR; break;
2243                 case '1':
2244                         type = LR1; break;
2245                 case 'R':
2246                         report = 2; break;
2247                 case 'o':
2248                         outfile = optarg; break;
2249                 case 't':
2250                         tag = optarg; break;
2251                 default:
2252                         fprintf(stderr, "Usage: parsergen ...\n");
2253                         exit(1);
2254                 }
2255         }
2256         if (optind < argc)
2257                 infile = argv[optind++];
2258         else {
2259                 fprintf(stderr, "No input file given\n");
2260                 exit(1);
2261         }
2262         if (outfile && report == 1)
2263                 report = 0;
2264         name = outfile;
2265         if (name && strchr(name, '/'))
2266                 name = strrchr(name, '/')+1;
2267
2268         if (optind < argc) {
2269                 fprintf(stderr, "Excess command line arguments\n");
2270                 exit(1);
2271         }
2272
2273 ### Loading the grammar file
2274
2275 To be able to run `mdcode` and `scanner` on the grammar we need to memory
2276 map it.
2277
2278 Once we have extracted the code (with `mdcode`) we expect to find three
2279 sections: header, code, and grammar.  Anything else that is not
2280 excluded by the `--tag` option is an error.
2281
2282 "header" and "code" are optional, though it is hard to build a working
2283 parser with neither. "grammar" must be provided.
2284
2285 ###### includes
2286         #include <fcntl.h>
2287         #include <sys/mman.h>
2288         #include <errno.h>
2289
2290 ###### functions
2291         static int errs;
2292         static void pr_err(char *msg)
2293         {
2294                 errs++;
2295                 fprintf(stderr, "%s\n", msg);
2296         }
2297
2298 ###### load file
2299         struct section *table;
2300         int fd;
2301         int len;
2302         char *file;
2303         fd = open(infile, O_RDONLY);
2304         if (fd < 0) {
2305                 fprintf(stderr, "parsergen: cannot open %s: %s\n",
2306                         infile, strerror(errno));
2307                 exit(1);
2308         }
2309         len = lseek(fd, 0, 2);
2310         file = mmap(NULL, len, PROT_READ, MAP_SHARED, fd, 0);
2311         table = code_extract(file, file+len, pr_err);
2312
2313         struct code_node *hdr = NULL;
2314         struct code_node *code = NULL;
2315         struct code_node *gram = NULL;
2316         for (s = table; s; s = s->next) {
2317                 struct text sec = s->section;
2318                 if (tag && !strip_tag(&sec, tag))
2319                         continue;
2320                 if (text_is(sec, "header"))
2321                         hdr = s->code;
2322                 else if (text_is(sec, "code"))
2323                         code = s->code;
2324                 else if (text_is(sec, "grammar"))
2325                         gram = s->code;
2326                 else {
2327                         fprintf(stderr, "Unknown content section: %.*s\n",
2328                                 s->section.len, s->section.txt);
2329                         rv |= 2;
2330                 }
2331         }
2332
2333 ### Processing the input
2334
2335 As we need to append an extention to a filename and then open it for
2336 writing, and we need to do this twice, it helps to have a separate function.
2337
2338 ###### functions
2339
2340         static FILE *open_ext(char *base, char *ext)
2341         {
2342                 char *fn = malloc(strlen(base) + strlen(ext) + 1);
2343                 FILE *f;
2344                 strcat(strcpy(fn, base), ext);
2345                 f = fopen(fn, "w");
2346                 free(fn);
2347                 return f;
2348         }
2349
2350 If we can read the grammar, then we analyse and optionally report on it.  If
2351 the report finds conflicts we will exit with an error status.
2352
2353 ###### process input
2354         struct grammar *g = NULL;
2355         if (gram == NULL) {
2356                 fprintf(stderr, "No grammar section provided\n");
2357                 rv |= 2;
2358         } else {
2359                 g = grammar_read(gram);
2360                 if (!g) {
2361                         fprintf(stderr, "Failure to parse grammar\n");
2362                         rv |= 2;
2363                 }
2364         }
2365         if (g) {
2366                 grammar_analyse(g, type);
2367                 if (report)
2368                         if (grammar_report(g, type))
2369                                 rv |= 1;
2370         }
2371
2372 If a "headers" section is defined, we write it out and include a declaration
2373 for the `parse_XX` function so it can be used from separate code.
2374
2375         if (rv == 0 && hdr && outfile) {
2376                 FILE *f = open_ext(outfile, ".h");
2377                 if (f) {
2378                         code_node_print(f, hdr, infile);
2379                         fprintf(f, "void *parse_%s(struct code_node *code, struct token_config *config, FILE *trace);\n",
2380                                 name);
2381                         fclose(f);
2382                 } else {
2383                         fprintf(stderr, "Cannot create %s.h\n",
2384                                 outfile);
2385                         rv |= 4;
2386                 }
2387         }
2388
2389 And if all goes well and an output file was provided, we create the `.c`
2390 file with the code section (if any) and the parser tables and function.
2391
2392         if (rv == 0 && outfile) {
2393                 FILE *f = open_ext(outfile, ".c");
2394                 if (f) {
2395                         if (code)
2396                                 code_node_print(f, code, infile);
2397                         gen_parser(f, g, infile, name);
2398                         fclose(f);
2399                 } else {
2400                         fprintf(stderr, "Cannot create %s.c\n",
2401                                 outfile);
2402                         rv |= 4;
2403                 }
2404         }
2405
2406 And that about wraps it up.  We need to set the locale so that UTF-8 is
2407 recognised properly, and link with `libicuuc` as `libmdcode` requires that.
2408
2409 ###### File: parsergen.mk
2410         parsergen : parsergen.o libscanner.o libmdcode.o
2411                 $(CC) $(CFLAGS) -o parsergen parsergen.o libscanner.o libmdcode.o -licuuc
2412
2413 ###### includes
2414         #include <locale.h>
2415
2416 ###### main
2417
2418         int main(int argc, char *argv[])
2419         {
2420                 struct section *s;
2421                 int rv = 0;
2422
2423                 setlocale(LC_ALL,"");
2424
2425                 ## process arguments
2426                 ## load file
2427                 ## process input
2428
2429                 return rv;
2430         }
2431
2432 ## The SHIFT/REDUCE parser
2433
2434 Having analysed the grammar and generated all the tables, we only need the
2435 shift/reduce engine to bring it all together.
2436
2437 ### Goto table lookup
2438
2439 The parser generator has nicely provided us with goto tables sorted by
2440 symbol number.  We need a binary search function to find a symbol in the
2441 table.
2442
2443 ###### parser functions
2444
2445         static int search(const struct state *l, int sym)
2446         {
2447                 int lo = 0;
2448                 int hi = l->go_to_cnt;
2449
2450                 if (hi == 0)
2451                         return -1;
2452                 while (lo + 1 < hi) {
2453                         int mid = (lo + hi) / 2;
2454                         if (l->go_to[mid].sym <= sym)
2455                                 lo = mid;
2456                         else
2457                                 hi = mid;
2458                 }
2459                 if (l->go_to[lo].sym == sym)
2460                         return l->go_to[lo].state;
2461                 else
2462                         return -1;
2463         }
2464
2465 ### The state stack.
2466
2467 The core data structure for the parser is the stack.  This tracks all the
2468 symbols that have been recognised or partially recognised.
2469
2470 The stack usually won't grow very large - maybe a few tens of entries.  So
2471 we dynamically resize and array as required but never bother to shrink it
2472 down again.
2473
2474 We keep the stack as two separate allocations.  One, `asn_stack` stores the
2475 "abstract syntax nodes" which are created by each reduction.  When we call
2476 `do_reduce` we need to pass an array of the `asn`s of the body of the
2477 production, and by keeping a separate `asn` stack, we can just pass a
2478 pointer into this stack.
2479
2480 The other allocation stores all other stack fields of which there are six.
2481 The `state` is the most important one and guides the parsing process.  The
2482 `sym` is nearly unnecessary.  However when we want to free entries from the
2483 `asn_stack`, it helps to know what type they are so we can call the right
2484 freeing function.  The symbol leads us to the right free function through
2485 `do_free`.
2486
2487 The `indents` count tracks the line indents with-in the symbol or
2488 immediately follow it.  These are used to allow indent information to
2489 guide parsing and error recovery.
2490
2491 `since_newline` tracks how many stack frames since the last
2492 start-of-line (whether indented or not).  So if `since_newline` is
2493 zero, then this symbol is at the start of a line.  Similarly
2494 `since_indent` counts the number of states since an indent, it is zero
2495 precisely when `indents` is not zero.
2496
2497 `newline_permitted` keeps track of whether newlines should be ignored
2498 or not.
2499
2500 The stack is most properly seen as alternating states and symbols -
2501 states, like the 'DOT' in items, are between symbols.  Each frame in
2502 our stack holds a state and the symbol that was before it.  The
2503 bottom of stack holds the start state but no symbol, as nothing came
2504 before the beginning.
2505
2506 ###### parser functions
2507
2508         struct parser {
2509                 struct frame {
2510                         short state;
2511                         short newline_permitted;
2512
2513                         short sym;
2514                         short indents;
2515                         short since_newline;
2516                         short since_indent;
2517                 } *stack;
2518                 void **asn_stack;
2519                 int stack_size;
2520                 int tos;
2521         };
2522
2523 #### Shift and pop
2524
2525 Two operations are needed on the stack - shift (which is like push) and pop.
2526
2527 Shift applies not only to terminals but also to non-terminals.  When
2528 we reduce a production we will pop off entries corresponding to the
2529 body symbols, then push on an item for the head of the production.
2530 This last is exactly the same process as shifting in a terminal so we
2531 use the same function for both.  In both cases we provide the symbol,
2532 the number of indents the symbol contains (which will be zero for a
2533 terminal symbol) and a flag indicating the the symbol was at (or was
2534 reduced from a symbol which was at) the start of a line.  The state is
2535 deduced from the current top-of-stack state and the new symbol.
2536
2537 To simplify other code we arrange for `shift` to fail if there is no `goto`
2538 state for the symbol.  This is useful in basic parsing due to our design
2539 that we shift when we can, and reduce when we cannot.  So the `shift`
2540 function reports if it could.
2541
2542 `shift` is also used to push state zero onto the stack, so if the
2543 stack is empty, it always chooses zero as the next state.
2544
2545 So `shift` finds the next state.  If that succeeds it extends the
2546 allocations if needed and pushes all the information onto the stacks.
2547
2548 Newlines are permitted after a `starts_line` state until an internal
2549 indent.  If the new frame has neither a `starts_line` state nor an
2550 indent, newlines are permitted if the previous stack frame permitted
2551 them.
2552
2553 ###### parser functions
2554
2555         static int shift(struct parser *p,
2556                          short sym, short indents, short start_of_line,
2557                          void *asn,
2558                          const struct state states[])
2559         {
2560                 // Push an entry onto the stack
2561                 struct frame next = {0};
2562                 int newstate = p->tos
2563                         ? search(&states[p->stack[p->tos-1].state],
2564                                  sym)
2565                         : 0;
2566                 if (newstate < 0)
2567                         return 0;
2568                 if (p->tos >= p->stack_size) {
2569                         p->stack_size += 10;
2570                         p->stack = realloc(p->stack, p->stack_size
2571                                            * sizeof(p->stack[0]));
2572                         p->asn_stack = realloc(p->asn_stack, p->stack_size
2573                                            * sizeof(p->asn_stack[0]));
2574                 }
2575                 next.sym = sym;
2576                 next.indents = indents;
2577                 next.state = newstate;
2578                 if (states[newstate].starts_line)
2579                         next.newline_permitted = 1;
2580                 else if (indents)
2581                         next.newline_permitted = 0;
2582                 else if (p->tos)
2583                         next.newline_permitted =
2584                                 p->stack[p->tos-1].newline_permitted;
2585                 else
2586                         next.newline_permitted = 0;
2587
2588                 if (!start_of_line) {
2589                         if (p->tos)
2590                                 next.since_newline = p->stack[p->tos-1].since_newline + 1;
2591                         else
2592                                 next.since_newline = 1;
2593                 }
2594                 if (indents)
2595                         next.since_indent = 0;
2596                 else if (p->tos)
2597                         next.since_indent = p->stack[p->tos-1].since_indent + 1;
2598                 else
2599                         next.since_indent = 1;
2600
2601                 p->stack[p->tos] = next;
2602                 p->asn_stack[p->tos] = asn;
2603                 p->tos++;
2604                 return 1;
2605         }
2606
2607 `pop` primarily moves the top of stack (`tos`) back down the required
2608 amount and frees any `asn` entries that need to be freed.  It also
2609 collects a summary of the indents and line starts in the symbols that
2610 are being removed. It is called _after_ we reduce a production, just
2611 before we `shift` the nonterminal in.
2612
2613 ###### parser functions
2614
2615         static int pop(struct parser *p, int num,
2616                        short *start_of_line,
2617                        void(*do_free)(short sym, void *asn))
2618         {
2619                 int i;
2620                 short indents = 0;
2621                 int sol = 0;
2622
2623                 p->tos -= num;
2624                 for (i = 0; i < num; i++) {
2625                         sol |= !p->stack[p->tos+i].since_newline;
2626                         indents += p->stack[p->tos+i].indents;
2627                         do_free(p->stack[p->tos+i].sym,
2628                                 p->asn_stack[p->tos+i]);
2629                 }
2630                 if (start_of_line)
2631                         *start_of_line = sol;
2632                 return indents;
2633         }
2634
2635 ### Memory allocation
2636
2637 The `scanner` returns tokens in a local variable - we want them in allocated
2638 memory so they can live in the `asn_stack`.  Similarly the `asn` produced by
2639 a reduce is in a large buffer.  Both of these require some allocation and
2640 copying, hence `memdup` and `tokcopy`.
2641
2642 ###### parser includes
2643         #include <memory.h>
2644
2645 ###### parser functions
2646
2647         void *memdup(void *m, int len)
2648         {
2649                 void *ret;
2650                 if (len == 0)
2651                         return NULL;
2652                 ret = malloc(len);
2653                 memcpy(ret, m, len);
2654                 return ret;
2655         }
2656
2657         static struct token *tok_copy(struct token tk)
2658         {
2659                 struct token *new = malloc(sizeof(*new));
2660                 *new = tk;
2661                 return new;
2662         }
2663
2664 ### The heart of the parser.
2665
2666 Now we have the parser.  If we can shift we do, though newlines and
2667 reducing indenting may block that.  If not and we can reduce we do
2668 that.  If the production we reduced was production zero, then we have
2669 accepted the input and can finish.
2670
2671 We return whatever `asn` was returned by reducing production zero.
2672
2673 If we can neither shift nor reduce we have an error to handle.  We pop
2674 single entries off the stack until we can shift the `TK_error` symbol, then
2675 drop input tokens until we find one we can shift into the new error state.
2676
2677 When we find `TK_in` and `TK_out` tokens which report indents we need
2678 to handle them directly as the grammar cannot express what we want to
2679 do with them.
2680
2681 `TK_in` tokens are easy: we simply update indent count in the top stack frame to
2682 record how many indents there are following the previous token.
2683
2684 `TK_out` tokens must be canceled against an indent count
2685 within the stack.  If we can reduce some symbols that are all since
2686 the most recent indent, then we do that first.  If the minimum prefix
2687 of the current state then extends back before the most recent indent,
2688 that indent can be cancelled.  If the minimum prefix is shorter then
2689 the indent had ended prematurely and we must start error handling, which
2690 is still a work-in-progress.
2691
2692 `TK_newline` tokens are ignored unless the top stack frame records
2693 that they are permitted.  In that case they will not be considered for
2694 shifting if it is possible to reduce some symbols that are all since
2695 the most recent start of line.  This is how a newline forcible
2696 terminates any line-like structure - we try to reduce down to at most
2697 one symbol for each line where newlines are allowed.
2698
2699 When, during error handling, we discard token read in, we want to keep
2700 discarding until we see one that is recognised.  If we had a full set
2701 of LR(1) grammar states, this will mean looking in the look-ahead set,
2702 but we don't keep a full look-ahead set.  We only record the subset
2703 that leads to SHIFT.  We can, however, deduce the look-ahead set but
2704 looking at the SHIFT subsets for all states that we can get to by
2705 reducing zero or more times.  So we need a little function which
2706 checks if a given token is in any of these look-ahead sets.
2707
2708 ###### parser includes
2709         #include "parser.h"
2710
2711 ###### parser_run
2712
2713         static int in_lookahead(struct token *tk, const struct state *states, int state)
2714         {
2715                 while (state >= 0) {
2716                         if (search(&states[state], tk->num) >= 0)
2717                                 return 1;
2718                         if (states[state].reduce_prod < 0)
2719                                 return 0;
2720                         state = search(&states[state], states[state].reduce_sym);
2721                 }
2722                 return 0;
2723         }
2724
2725         void *parser_run(struct token_state *tokens,
2726                          const struct state states[],
2727                          int (*do_reduce)(int, void**, struct token_config*, void*),
2728                          void (*do_free)(short, void*),
2729                          FILE *trace, const char *non_term[],
2730                          struct token_config *config)
2731         {
2732                 struct parser p = { 0 };
2733                 struct token *tk = NULL;
2734                 int accepted = 0;
2735                 void *ret = NULL;
2736
2737                 shift(&p, TK_eof, 0, 1, NULL, states);
2738                 while (!accepted) {
2739                         struct token *err_tk;
2740                         struct frame *tos = &p.stack[p.tos-1];
2741                         if (!tk)
2742                                 tk = tok_copy(token_next(tokens));
2743                         parser_trace(trace, &p,
2744                                      tk, states, non_term, config->known_count);
2745
2746                         if (tk->num == TK_in) {
2747                                 tos->indents += 1;
2748                                 tos->since_newline = 0;
2749                                 tos->since_indent = 0;
2750                                 if (!states[tos->state].starts_line)
2751                                         tos->newline_permitted = 0;
2752                                 free(tk);
2753                                 tk = NULL;
2754                                 parser_trace_action(trace, "Record");
2755                                 continue;
2756                         }
2757                         if (tk->num == TK_out) {
2758                                 if (states[tos->state].reduce_size >= 0 &&
2759                                     states[tos->state].reduce_size <= tos->since_indent)
2760                                         goto force_reduce;
2761                                 if (states[tos->state].min_prefix >= tos->since_indent) {
2762                                         // OK to cancel
2763                                         struct frame *in = tos - tos->since_indent;
2764                                         in->indents -= 1;
2765                                         if (in->indents == 0) {
2766                                                 /* Reassess since_indent and newline_permitted */
2767                                                 if (in > p.stack) {
2768                                                         in->since_indent = in[-1].since_indent + 1;
2769                                                         in->newline_permitted = in[-1].newline_permitted;
2770                                                 } else {
2771                                                         in->since_indent = 0;
2772                                                         in->newline_permitted = 0;
2773                                                 }
2774                                                 if (states[in->state].starts_line)
2775                                                         in->newline_permitted = 1;
2776                                                 while (in < tos) {
2777                                                         in += 1;
2778                                                         in->since_indent = in[-1].since_indent + 1;
2779                                                         if (states[in->state].starts_line)
2780                                                                 in->newline_permitted = 1;
2781                                                         else
2782                                                                 in->newline_permitted = in[-1].newline_permitted;
2783                                                 }
2784                                         }
2785                                         free(tk);
2786                                         tk = NULL;
2787                                         parser_trace_action(trace, "Cancel");
2788                                         continue;
2789                                 }
2790                                 // fall through to error handling as both SHIFT and REDUCE
2791                                 // will fail.
2792                         }
2793                         if (tk->num == TK_newline) {
2794                                 if (!tos->newline_permitted) {
2795                                         free(tk);
2796                                         tk = NULL;
2797                                         parser_trace_action(trace, "Discard");
2798                                         continue;
2799                                 }
2800                                 if (tos->since_newline > 1 &&
2801                                     states[tos->state].reduce_size >= 0 &&
2802                                     states[tos->state].reduce_size <= tos->since_newline)
2803                                         goto force_reduce;
2804                         }
2805                         if (shift(&p, tk->num, 0, tk->num == TK_newline, tk, states)) {
2806                                 tk = NULL;
2807                                 parser_trace_action(trace, "Shift");
2808                                 continue;
2809                         }
2810                 force_reduce:
2811                         if (states[tos->state].reduce_prod >= 0) {
2812                                 void **body;
2813                                 void *res;
2814                                 const struct state *nextstate = &states[tos->state];
2815                                 int prod = nextstate->reduce_prod;
2816                                 int size = nextstate->reduce_size;
2817                                 int bufsize;
2818                                 static char buf[16*1024];
2819                                 short indents, start_of_line;
2820
2821                                 body = p.asn_stack + (p.tos - size);
2822
2823                                 bufsize = do_reduce(prod, body, config, buf);
2824
2825                                 indents = pop(&p, size, &start_of_line,
2826                                               do_free);
2827                                 res = memdup(buf, bufsize);
2828                                 memset(buf, 0, bufsize);
2829                                 if (!shift(&p, nextstate->reduce_sym,
2830                                            indents, start_of_line,
2831                                            res, states)) {
2832                                         if (prod != 0) abort();
2833                                         accepted = 1;
2834                                         ret = res;
2835                                 }
2836                                 parser_trace_action(trace, "Reduce");
2837                                 continue;
2838                         }
2839                         /* Error. We walk up the stack until we
2840                          * find a state which will accept TK_error.
2841                          * We then shift in TK_error and see what state
2842                          * that takes us too.
2843                          * Then we discard input tokens until
2844                          * we find one that is acceptable.
2845                          */
2846                         parser_trace_action(trace, "ERROR");
2847                         short indents = 0, start_of_line;
2848
2849                         err_tk = tok_copy(*tk);
2850                         while (p.tos > 0 &&
2851                                shift(&p, TK_error, 0, 0,
2852                                      err_tk, states) == 0)
2853                                 // discard this state
2854                                 indents += pop(&p, 1, &start_of_line, do_free);
2855                         if (p.tos == 0) {
2856                                 free(err_tk);
2857                                 // no state accepted TK_error
2858                                 break;
2859                         }
2860                         tos = &p.stack[p.tos-1];
2861                         while (!in_lookahead(tk, states, tos->state) &&
2862                                tk->num != TK_eof) {
2863                                 free(tk);
2864                                 tk = tok_copy(token_next(tokens));
2865                                 if (tk->num == TK_in)
2866                                         indents += 1;
2867                                 if (tk->num == TK_out) {
2868                                         if (indents == 0)
2869                                                 break;
2870                                         indents -= 1;
2871                                         // FIXME update since_indent here
2872                                 }
2873                         }
2874                         tos->indents += indents;
2875                 }
2876                 free(tk);
2877                 pop(&p, p.tos, NULL, do_free);
2878                 free(p.asn_stack);
2879                 free(p.stack);
2880                 return ret;
2881         }
2882
2883 ###### exported functions
2884         void *parser_run(struct token_state *tokens,
2885                          const struct state states[],
2886                          int (*do_reduce)(int, void**, struct token_config*, void*),
2887                          void (*do_free)(short, void*),
2888                          FILE *trace, const char *non_term[],
2889                          struct token_config *config);
2890
2891 ### Tracing
2892
2893 Being able to visualize the parser in action can be invaluable when
2894 debugging the parser code, or trying to understand how the parse of a
2895 particular grammar progresses.  The stack contains all the important
2896 state, so just printing out the stack every time around the parse loop
2897 can make it possible to see exactly what is happening.
2898
2899 This doesn't explicitly show each SHIFT and REDUCE action.  However they
2900 are easily deduced from the change between consecutive lines, and the
2901 details of each state can be found by cross referencing the states list
2902 in the stack with the "report" that parsergen can generate.
2903
2904 For terminal symbols, we just dump the token.  For non-terminals we
2905 print the name of the symbol.  The look ahead token is reported at the
2906 end inside square brackets.
2907
2908 ###### parser functions
2909
2910         static char *reserved_words[] = {
2911                 [TK_error]        = "ERROR",
2912                 [TK_in]           = "IN",
2913                 [TK_out]          = "OUT",
2914                 [TK_newline]      = "NEWLINE",
2915                 [TK_eof]          = "$eof",
2916         };
2917         static void parser_trace_state(FILE *trace, struct frame *f, const struct state states[])
2918         {
2919                 fprintf(trace, "(%d", f->state);
2920                 if (states[f->state].starts_line)
2921                         fprintf(trace, "s");
2922                 if (f->newline_permitted)
2923                         fprintf(trace, "n%d", f->since_newline);
2924                 fprintf(trace, ") ");
2925         }
2926
2927         void parser_trace(FILE *trace, struct parser *p,
2928                           struct token *tk, const struct state states[],
2929                           const char *non_term[], int knowns)
2930         {
2931                 int i;
2932                 if (!trace)
2933                         return;
2934                 for (i = 0; i < p->tos; i++) {
2935                         struct frame *f = &p->stack[i];
2936                         if (i) {
2937                                 int sym = f->sym;
2938                                 if (sym < TK_reserved &&
2939                                     reserved_words[sym] != NULL)
2940                                         fputs(reserved_words[sym], trace);
2941                                 else if (sym < TK_reserved + knowns) {
2942                                         struct token *t = p->asn_stack[i];
2943                                         text_dump(trace, t->txt, 20);
2944                                 } else
2945                                         fputs(non_term[sym - TK_reserved - knowns],
2946                                               trace);
2947                                 if (f->indents)
2948                                         fprintf(trace, ".%d", f->indents);
2949                                 if (f->since_newline == 0)
2950                                         fputs("/", trace);
2951                                 fputs(" ", trace);
2952                         }
2953                         parser_trace_state(trace, f, states);
2954                 }
2955                 fprintf(trace, "[");
2956                 if (tk->num < TK_reserved &&
2957                     reserved_words[tk->num] != NULL)
2958                         fputs(reserved_words[tk->num], trace);
2959                 else
2960                         text_dump(trace, tk->txt, 20);
2961                 fputs("]", trace);
2962         }
2963
2964         void parser_trace_action(FILE *trace, char *action)
2965         {
2966                 if (trace)
2967                         fprintf(trace, " - %s\n", action);
2968         }
2969
2970 # A Worked Example
2971
2972 The obvious example for a parser is a calculator.
2973
2974 As `scanner` provides number parsing function using `libgmp` is it not much
2975 work to perform arbitrary rational number calculations.
2976
2977 This calculator takes one expression, or an equality test, per line.  The
2978 results are printed and if any equality test fails, the program exits with
2979 an error.
2980
2981 ###### File: parsergen.mk
2982         calc.c calc.h : parsergen parsergen.mdc
2983                 ./parsergen --tag calc -o calc parsergen.mdc
2984         calc : calc.o libparser.o libscanner.o libmdcode.o libnumber.o
2985                 $(CC) $(CFLAGS) -o calc calc.o libparser.o libscanner.o libmdcode.o libnumber.o -licuuc -lgmp
2986         calctest : calc
2987                 ./calc parsergen.mdc
2988         demos :: calctest
2989
2990 # calc: header
2991
2992         #include "number.h"
2993         // what do we use for a demo-grammar?  A calculator of course.
2994         struct number {
2995                 mpq_t val;
2996                 char tail[2];
2997                 int err;
2998         };
2999
3000 # calc: code
3001
3002         #include <stdlib.h>
3003         #include <unistd.h>
3004         #include <fcntl.h>
3005         #include <sys/mman.h>
3006         #include <stdio.h>
3007         #include <malloc.h>
3008         #include <gmp.h>
3009         #include <string.h>
3010         #include "mdcode.h"
3011         #include "scanner.h"
3012         #include "number.h"
3013         #include "parser.h"
3014
3015         #include "calc.h"
3016
3017         static void free_number(struct number *n)
3018         {
3019                 mpq_clear(n->val);
3020                 free(n);
3021         }
3022
3023         static int text_is(struct text t, char *s)
3024         {
3025                 return (strlen(s) == t.len &&
3026                         strncmp(s, t.txt, t.len) == 0);
3027         }
3028
3029         int main(int argc, char *argv[])
3030         {
3031                 int fd = open(argv[1], O_RDONLY);
3032                 int len = lseek(fd, 0, 2);
3033                 char *file = mmap(NULL, len, PROT_READ, MAP_SHARED, fd, 0);
3034                 struct section *table = code_extract(file, file+len, NULL);
3035                 struct section *s;
3036                 struct token_config config = {
3037                         .ignored = (1 << TK_line_comment)
3038                                  | (1 << TK_block_comment)
3039                                  | (1 << TK_in)
3040                                  | (1 << TK_out),
3041                         .number_chars = ".,_+-",
3042                         .word_start = "",
3043                         .word_cont = "",
3044                 };
3045                 for (s = table; s; s = s->next)
3046                         if (text_is(s->section, "example: input"))
3047                                 parse_calc(s->code, &config, argc > 2 ? stderr : NULL);
3048                 while (table) {
3049                         struct section *t = table->next;
3050                         code_free(table->code);
3051                         free(table);
3052                         table = t;
3053                 }
3054                 exit(0);
3055         }
3056
3057 # calc: grammar
3058
3059         $LEFT * /
3060         $LEFT + -
3061
3062         Session -> Session Line
3063                 | Line
3064
3065         Line -> Expression NEWLINE ${ gmp_printf("Answer = %Qd\n", $1.val);
3066                                         { mpf_t fl; mpf_init2(fl, 20); mpf_set_q(fl, $1.val);
3067                                         gmp_printf("  or as a decimal: %Fg\n", fl);
3068                                         mpf_clear(fl);
3069                                         }
3070                                      }$
3071                 | Expression = Expression NEWLINE ${
3072                         if (mpq_equal($1.val, $3.val))
3073                                 gmp_printf("Both equal %Qd\n", $1.val);
3074                         else {
3075                                 gmp_printf("NOT EQUAL: %Qd\n      != : %Qd\n",
3076                                         $1.val, $3.val);
3077                                 exit(1);
3078                         }
3079                 }$
3080                 | NEWLINE ${ printf("Blank line\n"); }$
3081                 | ERROR NEWLINE ${ printf("Skipped a bad line\n"); }$
3082
3083         $number
3084         Expression -> Expression + Expression ${ mpq_init($0.val); mpq_add($0.val, $1.val, $3.val); }$
3085                 | Expression - Expression ${ mpq_init($0.val); mpq_sub($0.val, $1.val, $3.val); }$
3086                 | Expression * Expression ${ mpq_init($0.val); mpq_mul($0.val, $1.val, $3.val); }$
3087                 | Expression / Expression ${ mpq_init($0.val); mpq_div($0.val, $1.val, $3.val); }$
3088                 | NUMBER ${ if (number_parse($0.val, $0.tail, $1.txt) == 0) mpq_init($0.val); }$
3089                 | ( Expression ) ${ mpq_init($0.val); mpq_set($0.val, $2.val); }$
3090
3091 # example: input
3092
3093         355/113
3094         3.1415926535 - 355/113
3095         2 + 4 * 5
3096         1 + 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9
3097         10 * 9 / 2
3098         1 * 1000 + 2 * 100 + 3 * 10 + 4 * 1
3099
3100         error