]> ocean-lang.org Git - ocean/blob - csrc/parsergen.mdc
478482e0f6b0512b9fc09946b4b1b5ead04fe7fd
[ocean] / csrc / parsergen.mdc
1 # LR(1) Parser Generator #
2
3 This parser generator takes a grammar description combined with code
4 fragments, analyses it, and can report details about the analysis and
5 write out C code files which can be compiled to make a parser.
6
7 There are several distinct sections.
8
9 1. `grammar_read` will read a grammar from a literate-code file and
10    store the productions, symbols, and code fragments.
11 2. `grammar_analyse` will take that grammar and build LR parsing
12    states and look-ahead tables.
13 3. `grammar_report` will present the details of the analysis
14    in a readable format and will report any conflicts.
15 4. `parser_generate` will write out C code files with various
16    tables and with the code fragments arranged in useful places.
17 5. `parser_run` is a library function intended to be linked together
18    with the generated parser tables to complete the implementation of
19    a parser.
20 6. Finally `calc` is a test grammar for a simple calculator.  The
21    `parsergen` program built from the C code in this file can extract
22    that grammar directly from this file and process it.
23
24 ###### File: parsergen.c
25         #include <unistd.h>
26         #include <stdlib.h>
27         #include <stdio.h>
28         ## includes
29         ## forward declarations
30         ## declarations
31         ## functions
32         ## grammar_read
33         ## grammar_analyse
34         ## grammar_report
35         ## parser_generate
36         ## main
37 ###### File: parser.h
38         ## exported types
39         ## exported functions
40 ###### File: libparser.c
41         #include <unistd.h>
42         #include <stdlib.h>
43         #include <stdio.h>
44         ## parser includes
45         ## parser functions
46         ## parser_run
47 ###### File: parsergen.mk
48         CFLAGS += -Wall -g
49         all :: parsergen calc
50         parsergen.c parsergen.mk libparser.c parser.h : parsergen.mdc
51                 ./md2c parsergen.mdc
52
53 ## Reading the grammar
54
55 The grammar must be stored in a markdown literate code file as parsed
56 by "[mdcode][]".  It must have three top level (i.e. unreferenced)
57 sections: `header`, `code`, and `grammar`.  The first two will be
58 literally copied into the generated `.c` and `.h`. files.  The last
59 contains the grammar.  This is tokenised with "[scanner][]".
60
61 If the `--tag` option is given, then any top level header that doesn't
62 start with the tag is ignored, and the tag is striped from the rest.  So
63 `--tag Foo`
64 means that the three needed sections must be `Foo: header`, `Foo: code`,
65 and `Foo: grammar`.  The tag `calc` is used to extract the same calculator
66 from this file.
67
68 [mdcode]: mdcode.html
69 [scanner]: scanner.html
70
71 ###### includes
72         #include "mdcode.h"
73         #include "scanner.h"
74
75 ###### parser includes
76         #include "mdcode.h"
77         #include "scanner.h"
78
79 The grammar contains production sets, precedence/associativity
80 declarations, and data type declarations.  These are all parsed with
81 _ad hoc_ parsing as we don't have a parser generator yet.
82
83 The precedence and associativity can be set for each production, but
84 can be inherited from symbols.  The data type (either structure or a
85 reference to a structure) is potentially defined for each non-terminal
86 and describes what C structure is used to store information about each
87 symbol.
88
89 ###### declarations
90         enum assoc {Left, Right, Non};
91         char *assoc_names[] = {"Left","Right","Non"};
92
93         struct symbol {
94                 struct text struct_name;
95                 int isref;
96                 enum assoc assoc;
97                 unsigned short precedence;
98                 ## symbol fields
99         };
100         struct production {
101                 unsigned short precedence;
102                 enum assoc assoc;
103                 ## production fields
104         };
105         struct grammar {
106                 ## grammar fields
107         };
108
109 The strings reported by `mdcode` and `scanner` are `struct text` which have
110 length rather than being null terminated.  To help with printing and
111 comparing we define `text_is` and `prtxt`, which should possibly go in
112 `mdcode`.  `scanner` does provide `text_dump` which is useful for strings
113 which might contain control characters.
114
115 `strip_tag` is a bit like `strncmp`, but adds a test for a colon,
116 because that is what we need to detect tags.
117
118 ###### functions
119         static int text_is(struct text t, char *s)
120         {
121                 return (strlen(s) == t.len &&
122                         strncmp(s, t.txt, t.len) == 0);
123         }
124         static void prtxt(struct text t)
125         {
126                 printf("%.*s", t.len, t.txt);
127         }
128
129         static int strip_tag(struct text *t, char *tag)
130         {
131                 int skip = strlen(tag) + 1;
132                 if (skip >= t->len ||
133                     strncmp(t->txt, tag, skip-1) != 0 ||
134                     t->txt[skip-1] != ':')
135                         return 0;
136                 while (skip < t->len && t->txt[skip] == ' ')
137                         skip++;
138                 t->len -= skip;
139                 t->txt += skip;
140                 return 1;
141         }
142
143 ### Symbols
144
145 Productions are comprised primarily of symbols - terminal and
146 non-terminal.  We do not make a syntactic distinction between the two,
147 though non-terminals must be identifiers.  Non-terminal symbols are
148 those which appear in the head of a production, terminal symbols are
149 those which don't.  There are also "virtual" symbols used for precedence
150 marking discussed later, and sometimes we won't know what type a symbol
151 is yet.
152
153 ###### forward declarations
154         enum symtype { Unknown, Virtual, Terminal, Nonterminal };
155         char *symtypes = "UVTN";
156 ###### symbol fields
157         enum symtype type;
158
159 Symbols can be either `TK_ident` or `TK_mark`.  They are saved in a
160 table of known symbols and the resulting parser will report them as
161 `TK_reserved + N`.  A small set of identifiers are reserved for the
162 different token types that `scanner` can report.
163
164 ###### declarations
165         static char *reserved_words[] = {
166                 [TK_error]        = "ERROR",
167                 [TK_number]       = "NUMBER",
168                 [TK_ident]        = "IDENTIFIER",
169                 [TK_mark]         = "MARK",
170                 [TK_string]       = "STRING",
171                 [TK_multi_string] = "MULTI_STRING",
172                 [TK_in]           = "IN",
173                 [TK_out]          = "OUT",
174                 [TK_newline]      = "NEWLINE",
175                 [TK_eof]          = "$eof",
176         };
177 ###### symbol fields
178         short num;
179
180 Note that `TK_eof` and the two `TK_*_comment` tokens cannot be
181 recognised.  The former is automatically expected at the end of the text
182 being parsed. The latter are always ignored by the parser.
183
184 All of these symbols are stored in a simple symbol table.  We use the
185 `struct text` from `mdcode` to store the name and link them together
186 into a sorted list using an insertion sort.
187
188 We don't have separate `find` and `insert` functions as any symbol we
189 find needs to be remembered.  We simply expect `find` to always return a
190 symbol, but its type might be `Unknown`.
191
192 ###### includes
193         #include <string.h>
194
195 ###### symbol fields
196         struct text name;
197         struct symbol *next;
198
199 ###### grammar fields
200         struct symbol *syms;
201         int num_syms;
202
203 ###### functions
204         static struct symbol *sym_find(struct grammar *g, struct text s)
205         {
206                 struct symbol **l = &g->syms;
207                 struct symbol *n;
208                 int cmp = 1;
209
210                 while (*l &&
211                         (cmp = text_cmp((*l)->name, s)) < 0)
212                                 l = & (*l)->next;
213                 if (cmp == 0)
214                         return *l;
215                 n = calloc(1, sizeof(*n));
216                 n->name = s;
217                 n->type = Unknown;
218                 n->next = *l;
219                 n->num = -1;
220                 *l = n;
221                 return n;
222         }
223
224         static void symbols_init(struct grammar *g)
225         {
226                 int entries = sizeof(reserved_words)/sizeof(reserved_words[0]);
227                 int i;
228                 for (i = 0; i < entries; i++) {
229                         struct text t;
230                         struct symbol *s;
231                         t.txt = reserved_words[i];
232                         if (!t.txt)
233                                 continue;
234                         t.len = strlen(t.txt);
235                         s = sym_find(g, t);
236                         s->type = Terminal;
237                         s->num = i;
238                 }
239         }
240
241 ### Data types and precedence.
242
243 Data type specification and precedence specification are both
244 introduced by a dollar sign at the start of the line.  If the next
245 word is `LEFT`, `RIGHT` or `NON`, then the line specifies a
246 precedence, otherwise it specifies a data type.
247
248 The data type name is simply stored and applied to the head of all
249 subsequent productions.  It must be the name of a structure optionally
250 preceded by an asterisk which means a reference or "pointer".  So
251 `$expression` maps to `struct expression` and `$*statement` maps to
252 `struct statement *`.
253
254 Any productions given before the first data type declaration will have
255 no data type associated with them and can carry no information.  In
256 order to allow other non-terminals to have no type, the data type
257 `$void` can be given.  This does *not* mean that `struct void` will be
258 used, but rather than no type will be associated with future
259 non-terminals.
260
261 The precedence line must contain a list of symbols - typically
262 terminal symbols, but not necessarily.  It can only contain symbols
263 that have not been seen yet, so precedence declaration must precede
264 the productions that they affect.
265
266 A precedence line may also contain a "virtual" symbol which is an
267 identifier preceded by `$$`.  Virtual terminals carry precedence
268 information but are not included in the grammar.  A production can
269 declare that it inherits the precedence of a given virtual symbol.
270
271 This use for `$$` precludes it from being used as a symbol in the
272 described language.  Two other symbols: `${` and `}$` are also
273 unavailable.
274
275 Each new precedence line introduces a new precedence level and
276 declares how it associates.  This level is stored in each symbol
277 listed and may be inherited by any production which uses the symbol.  A
278 production inherits from the last symbol which has a precedence.
279
280 ###### grammar fields
281         struct text current_type;
282         int type_isref;
283         int prec_levels;
284
285 ###### declarations
286         enum symbols { TK_virtual = TK_reserved, TK_open, TK_close };
287         static const char *known[] = { "$$", "${", "}$" };
288
289 ###### functions
290         static char *dollar_line(struct token_state *ts, struct grammar *g, int isref)
291         {
292                 struct token t = token_next(ts);
293                 char *err;
294                 enum assoc assoc;
295                 int found;
296
297                 if (t.num != TK_ident) {
298                         err = "type or assoc expected after '$'";
299                         goto abort;
300                 }
301                 if (text_is(t.txt, "LEFT"))
302                         assoc = Left;
303                 else if (text_is(t.txt, "RIGHT"))
304                         assoc = Right;
305                 else if (text_is(t.txt, "NON"))
306                         assoc = Non;
307                 else {
308                         g->current_type = t.txt;
309                         g->type_isref = isref;
310                         if (text_is(t.txt, "void"))
311                                 g->current_type.txt = NULL;
312                         t = token_next(ts);
313                         if (t.num != TK_newline) {
314                                 err = "Extra tokens after type name";
315                                 goto abort;
316                         }
317                         return NULL;
318                 }
319
320                 if (isref) {
321                         err = "$* cannot be followed by a precedence";
322                         goto abort;
323                 }
324
325                 // This is a precedence line, need some symbols.
326                 found = 0;
327                 g->prec_levels += 1;
328                 t = token_next(ts);
329                 while (t.num != TK_newline) {
330                         enum symtype type = Terminal;
331                         struct symbol *s;
332                         if (t.num == TK_virtual) {
333                                 type = Virtual;
334                                 t = token_next(ts);
335                                 if (t.num != TK_ident) {
336                                         err = "$$ must be followed by a word";
337                                         goto abort;
338                                 }
339                         } else if (t.num != TK_ident &&
340                                    t.num != TK_mark) {
341                                 err = "Illegal token in precedence line";
342                                 goto abort;
343                         }
344                         s = sym_find(g, t.txt);
345                         if (s->type != Unknown) {
346                                 err = "Symbols in precedence line must not already be known.";
347                                 goto abort;
348                         }
349                         s->type = type;
350                         s->precedence = g->prec_levels;
351                         s->assoc = assoc;
352                         found += 1;
353                         t = token_next(ts);
354                 }
355                 if (found == 0)
356                         err = "No symbols given on precedence line";
357                         goto abort;
358                 return NULL;
359         abort:
360                 while (t.num != TK_newline && t.num != TK_eof)
361                         t = token_next(ts);
362                 return err;
363         }
364
365 ### Productions
366
367 A production either starts with an identifier which is the head
368 non-terminal, or a vertical bar (`|`) in which case this production
369 uses the same head as the previous one.  The identifier must be
370 followed by a `->` mark.  All productions for a given non-terminal must
371 be grouped together with the `nonterminal ->` given only once.
372
373 After this a (possibly empty) sequence of identifiers and marks form
374 the body of the production.  A virtual symbol may be given after the
375 body by preceding it with `$$`.  If a virtual symbol is given, the
376 precedence of the production is that for the virtual symbol.  If none
377 is given, the precedence is inherited from the last symbol in the
378 production which has a precedence specified.
379
380 After the optional precedence may come the `${` mark.  This indicates
381 the start of a code fragment.  If present, this must be on the same
382 line as the start of the production.
383
384 All of the text from the `${` through to the matching `}$` is
385 collected and forms the code-fragment for the production.  It must all
386 be in one `code_node` of the literate code.  The `}$` must be
387 at the end of a line.
388
389 Text in the code fragment will undergo substitutions where `$N` or
390 `$<N`,for some numeric `N`, will be replaced with a variable holding
391 the parse information for the particular symbol in the production.
392 `$0` is the head of the production, `$1` is the first symbol of the
393 body, etc.  The type of `$N` for a terminal symbol is `struct token`.
394 For a non-terminal, it is whatever has been declared for that symbol.
395 The `<` may be included for symbols declared as storing a reference
396 (not a structure) and means that the reference is being moved out, so
397 it will not automatically be freed.
398
399 While building productions we will need to add to an array which needs to
400 grow dynamically.
401
402 ###### functions
403         static void array_add(void *varray, int *cnt, void *new)
404         {
405                 void ***array = varray;
406                 int current = 0;
407                 const int step = 8;
408                 current = ((*cnt-1) | (step-1))+1;
409                 if (*cnt == current) {
410                         /* must grow */
411                         current += step;
412                         *array = realloc(*array, current * sizeof(void*));
413                 }
414                 (*array)[*cnt] = new;
415                 (*cnt) += 1;
416         }
417
418 Collecting the code fragment simply involves reading tokens until we
419 hit the end token `}$`, and noting the character position of the start and
420 the end.
421
422 ###### functions
423         static struct text collect_code(struct token_state *state,
424                                         struct token start)
425         {
426                 struct text code;
427                 struct token t;
428                 code.txt = start.txt.txt + start.txt.len;
429                 do
430                         t = token_next(state);
431                 while (t.node == start.node &&
432                        t.num != TK_close && t.num != TK_error &&
433                        t.num != TK_eof);
434                 if (t.num == TK_close && t.node == start.node)
435                         code.len = t.txt.txt - code.txt;
436                 else
437                         code.txt = NULL;
438                 return code;
439         }
440
441 Now we have all the bits we need to parse a full production.
442
443 ###### includes
444         #include <memory.h>
445
446 ###### grammar fields
447         struct production **productions;
448         int production_count;
449
450 ###### production fields
451         struct symbol  *head;
452         struct symbol **body;
453         int             body_size;
454         struct text     code;
455         int             code_line;
456
457 ###### symbol fields
458         int first_production;
459
460 ###### functions
461         static char *parse_production(struct grammar *g,
462                                       struct symbol *head,
463                                       struct token_state *state)
464         {
465                 /* Head has already been parsed. */
466                 struct token tk;
467                 char *err;
468                 struct production p, *pp;
469
470                 memset(&p, 0, sizeof(p));
471                 p.head = head;
472                 tk = token_next(state);
473                 while (tk.num == TK_ident || tk.num == TK_mark) {
474                         struct symbol *bs = sym_find(g, tk.txt);
475                         if (bs->type == Unknown)
476                                 bs->type = Terminal;
477                         if (bs->type == Virtual) {
478                                 err = "Virtual symbol not permitted in production";
479                                 goto abort;
480                         }
481                         if (bs->precedence) {
482                                 p.precedence = bs->precedence;
483                                 p.assoc = bs->assoc;
484                         }
485                         array_add(&p.body, &p.body_size, bs);
486                         tk = token_next(state);
487                 }
488                 if (tk.num == TK_virtual) {
489                         struct symbol *vs;
490                         tk = token_next(state);
491                         if (tk.num != TK_ident) {
492                                 err = "word required after $$";
493                                 goto abort;
494                         }
495                         vs = sym_find(g, tk.txt);
496                         if (vs->type != Virtual) {
497                                 err = "symbol after $$ must be virtual";
498                                 goto abort;
499                         }
500                         p.precedence = vs->precedence;
501                         p.assoc = vs->assoc;
502                         tk = token_next(state);
503                 }
504                 if (tk.num == TK_open) {
505                         p.code_line = tk.line;
506                         p.code = collect_code(state, tk);
507                         if (p.code.txt == NULL) {
508                                 err = "code fragment not closed properly";
509                                 goto abort;
510                         }
511                         tk = token_next(state);
512                 }
513                 if (tk.num != TK_newline && tk.num != TK_eof) {
514                         err = "stray tokens at end of line";
515                         goto abort;
516                 }
517                 pp = malloc(sizeof(*pp));
518                 *pp = p;
519                 array_add(&g->productions, &g->production_count, pp);
520                 return NULL;
521         abort:
522                 while (tk.num != TK_newline && tk.num != TK_eof)
523                         tk = token_next(state);
524                 return err;
525         }
526
527 With the ability to parse production and dollar-lines, we have nearly all
528 that we need to parse a grammar from a `code_node`.
529
530 The head of the first production will effectively be the `start` symbol of
531 the grammar.  However it won't _actually_ be so.  Processing the grammar is
532 greatly simplified if the real start symbol only has a single production,
533 and expects `$eof` as the final terminal.  So when we find the first
534 explicit production we insert an extra production as production zero which
535 looks like
536
537 ###### Example: production 0
538         $start -> START $eof
539
540 where `START` is the first non-terminal given.
541
542 ###### create production zero
543         struct production *p = calloc(1,sizeof(*p));
544         struct text start = {"$start",6};
545         struct text eof = {"$eof",4};
546         struct text code = {"$0 = $<1;", 9};
547         p->head = sym_find(g, start);
548         p->head->type = Nonterminal;
549         p->head->struct_name = g->current_type;
550         p->head->isref = g->type_isref;
551         if (g->current_type.txt)
552                 p->code = code;
553         array_add(&p->body, &p->body_size, head);
554         array_add(&p->body, &p->body_size, sym_find(g, eof));
555         p->head->first_production = g->production_count;
556         array_add(&g->productions, &g->production_count, p);
557
558 Now we are ready to read in the grammar.  We ignore comments
559 and strings so that the marks which introduce them can be
560 used as terminals in the grammar.  We don't ignore numbers
561 even though we don't allow them as that causes the scanner
562 to produce errors that the parser is better positioned to handle.
563
564 ###### grammar_read
565         static struct grammar *grammar_read(struct code_node *code)
566         {
567                 struct token_config conf = {
568                         .word_start = "",
569                         .word_cont = "",
570                         .words_marks = known,
571                         .known_count = sizeof(known)/sizeof(known[0]),
572                         .number_chars = "",
573                         .ignored = (1 << TK_line_comment)
574                                  | (1 << TK_block_comment)
575                                  | (0 << TK_number)
576                                  | (1 << TK_string)
577                                  | (1 << TK_multi_string)
578                                  | (1 << TK_in)
579                                  | (1 << TK_out),
580                 };
581
582                 struct token_state *state = token_open(code, &conf);
583                 struct token tk;
584                 struct symbol *head = NULL;
585                 struct grammar *g;
586                 char *err = NULL;
587
588                 g = calloc(1, sizeof(*g));
589                 symbols_init(g);
590
591                 for (tk = token_next(state); tk.num != TK_eof;
592                      tk = token_next(state)) {
593                         if (tk.num == TK_newline)
594                                 continue;
595                         if (tk.num == TK_ident) {
596                                 // new non-terminal
597                                 head = sym_find(g, tk.txt);
598                                 if (head->type == Nonterminal)
599                                         err = "This non-terminal has already be used.";
600                                 else if (head->type == Virtual)
601                                         err = "Virtual symbol not permitted in head of production";
602                                 else {
603                                         head->type = Nonterminal;
604                                         head->struct_name = g->current_type;
605                                         head->isref = g->type_isref;
606                                         if (g->production_count == 0) {
607                                                 ## create production zero
608                                         }
609                                         head->first_production = g->production_count;
610                                         tk = token_next(state);
611                                         if (tk.num == TK_mark &&
612                                             text_is(tk.txt, "->"))
613                                                 err = parse_production(g, head, state);
614                                         else
615                                                 err = "'->' missing in production";
616                                 }
617                         } else if (tk.num == TK_mark
618                                    && text_is(tk.txt, "|")) {
619                                 // another production for same non-term
620                                 if (head)
621                                         err = parse_production(g, head, state);
622                                 else
623                                         err = "First production must have a head";
624                         } else if (tk.num == TK_mark
625                                    && text_is(tk.txt, "$")) {
626                                 err = dollar_line(state, g, 0);
627                         } else if (tk.num == TK_mark
628                                    && text_is(tk.txt, "$*")) {
629                                 err = dollar_line(state, g, 1);
630                         } else {
631                                 err = "Unrecognised token at start of line.";
632                         }
633                         if (err)
634                                 goto abort;
635                 }
636                 token_close(state);
637                 return g;
638         abort:
639                 fprintf(stderr, "Error at line %d: %s\n",
640                         tk.line, err);
641                 token_close(state);
642                 free(g);
643                 return NULL;
644         }
645
646 ## Analysing the grammar
647
648 The central task in analysing the grammar is to determine a set of
649 states to drive the parsing process.  This will require finding
650 various sets of symbols and of "items".  Some of these sets will need
651 to attach information to each element in the set, so they are more
652 like maps.
653
654 Each "item" may have a 'look-ahead' or `LA` set associated with
655 it.  Many of these will be the same as each other.  To avoid memory
656 wastage, and to simplify some comparisons of sets, these sets will be
657 stored in a list of unique sets, each assigned a number.
658
659 Once we have the data structures in hand to manage these sets and
660 lists, we can start setting the 'nullable' flag, build the 'FIRST'
661 sets, and then create the item sets which define the various states.
662
663 ### Symbol sets.
664
665 Though we don't only store symbols in these sets, they are the main
666 things we store, so they are called symbol sets or "symsets".
667
668 A symset has a size, an array of shorts, and an optional array of data
669 values, which are also shorts.  If the array of data is not present,
670 we store an impossible pointer, as `NULL` is used to indicate that no
671 memory has been allocated yet;
672
673 ###### declarations
674         struct symset {
675                 short cnt;
676                 unsigned short *syms, *data;
677         };
678         #define NO_DATA ((unsigned short *)1)
679         const struct symset INIT_SYMSET =  { 0, NULL, NO_DATA };
680         const struct symset INIT_DATASET = { 0, NULL, NULL };
681
682 The arrays of shorts are allocated in blocks of 8 and are kept sorted
683 by using an insertion sort.  We don't explicitly record the amount of
684 allocated space as it can be derived directly from the current `cnt` using
685 `((cnt - 1) | 7) + 1`.
686
687 ###### functions
688         static void symset_add(struct symset *s, unsigned short key, unsigned short val)
689         {
690                 int i;
691                 int current = ((s->cnt-1) | 7) + 1;
692                 if (current == s->cnt) {
693                         current += 8;
694                         s->syms = realloc(s->syms, sizeof(*s->syms) * current);
695                         if (s->data != NO_DATA)
696                                 s->data = realloc(s->data, sizeof(*s->data) * current);
697                 }
698                 i = s->cnt;
699                 while (i > 0 && s->syms[i-1] > key) {
700                         s->syms[i] = s->syms[i-1];
701                         if (s->data != NO_DATA)
702                                 s->data[i] = s->data[i-1];
703                         i--;
704                 }
705                 s->syms[i] = key;
706                 if (s->data != NO_DATA)
707                         s->data[i] = val;
708                 s->cnt += 1;
709         }
710
711 Finding a symbol (or item) in a `symset` uses a simple binary search.
712 We return the index where the value was found (so data can be accessed),
713 or `-1` to indicate failure.
714
715         static int symset_find(struct symset *ss, unsigned short key)
716         {
717                 int lo = 0;
718                 int hi = ss->cnt;
719
720                 if (hi == 0)
721                         return -1;
722                 while (lo + 1 < hi) {
723                         int mid = (lo + hi) / 2;
724                         if (ss->syms[mid] <= key)
725                                 lo = mid;
726                         else
727                                 hi = mid;
728                 }
729                 if (ss->syms[lo] == key)
730                         return lo;
731                 return -1;
732         }
733
734 We will often want to form the union of two symsets.  When we do, we
735 will often want to know if anything changed (as that might mean there
736 is more work to do).  So `symset_union` reports whether anything was
737 added to the first set.  We use a slow quadratic approach as these
738 sets don't really get very big.  If profiles shows this to be a problem it
739 can be optimised later.
740
741         static int symset_union(struct symset *a, struct symset *b)
742         {
743                 int i;
744                 int added = 0;
745                 for (i = 0; i < b->cnt; i++)
746                         if (symset_find(a, b->syms[i]) < 0) {
747                                 unsigned short data = 0;
748                                 if (b->data != NO_DATA)
749                                         data = b->data[i];
750                                 symset_add(a, b->syms[i], data);
751                                 added++;
752                         }
753                 return added;
754         }
755
756 And of course we must be able to free a symset.
757
758         static void symset_free(struct symset ss)
759         {
760                 free(ss.syms);
761                 if (ss.data != NO_DATA)
762                         free(ss.data);
763         }
764
765 ### Symset Storage
766
767 Some symsets are simply stored somewhere appropriate in the `grammar`
768 data structure, others needs a bit of indirection.  This applies
769 particularly to "LA" sets.  These will be paired with "items" in an
770 "itemset".  As itemsets will be stored in a symset, the "LA" set needs to be
771 stored in the `data` field, so we need a mapping from a small (short)
772 number to an LA `symset`.
773
774 As mentioned earlier this involves creating a list of unique symsets.
775
776 For now, we just use a linear list sorted by insertion.  A skiplist
777 would be more efficient and may be added later.
778
779 ###### declarations
780
781         struct setlist {
782                 struct symset ss;
783                 int num;
784                 struct setlist *next;
785         };
786
787 ###### grammar fields
788         struct setlist *sets;
789         int nextset;
790
791 ###### functions
792
793         static int ss_cmp(struct symset a, struct symset b)
794         {
795                 int i;
796                 int diff = a.cnt - b.cnt;
797                 if (diff)
798                         return diff;
799                 for (i = 0; i < a.cnt; i++) {
800                         diff = (int)a.syms[i] - (int)b.syms[i];
801                         if (diff)
802                                 return diff;
803                 }
804                 return 0;
805         }
806
807         static int save_set(struct grammar *g, struct symset ss)
808         {
809                 struct setlist **sl = &g->sets;
810                 int cmp = 1;
811                 struct setlist *s;
812
813                 while (*sl && (cmp = ss_cmp((*sl)->ss, ss)) < 0)
814                         sl = & (*sl)->next;
815                 if (cmp == 0) {
816                         symset_free(ss);
817                         return (*sl)->num;
818                 }
819
820                 s = malloc(sizeof(*s));
821                 s->ss = ss;
822                 s->num = g->nextset;
823                 g->nextset += 1;
824                 s->next = *sl;
825                 *sl = s;
826                 return s->num;
827         }
828
829 Finding a set by number is currently performed by a simple linear search.
830 If this turns out to hurt performance, we can store the sets in a dynamic
831 array like the productions.
832
833         static struct symset set_find(struct grammar *g, int num)
834         {
835                 struct setlist *sl = g->sets;
836                 while (sl && sl->num != num)
837                         sl = sl->next;
838                 return sl->ss;
839         }
840
841 ### Setting `nullable`
842
843 We set `nullable` on the head symbol for any production for which all
844 the body symbols (if any) are nullable.  As this is a recursive
845 definition, any change in the `nullable` setting means that we need to
846 re-evaluate where it needs to be set.
847
848 We simply loop around performing the same calculations until no more
849 changes happen.
850
851 ###### symbol fields
852         int nullable;
853
854 ###### functions
855         static void set_nullable(struct grammar *g)
856         {
857                 int check_again = 1;
858                 while (check_again) {
859                         int p;
860                         check_again = 0;
861                         for (p = 0; p < g->production_count; p++) {
862                                 struct production *pr = g->productions[p];
863                                 int s;
864
865                                 if (pr->head->nullable)
866                                         continue;
867                                 for (s = 0; s < pr->body_size; s++)
868                                         if (! pr->body[s]->nullable)
869                                                 break;
870                                 if (s == pr->body_size) {
871                                         pr->head->nullable = 1;
872                                         check_again = 1;
873                                 }
874                         }
875                 }
876         }
877
878 ### Setting `line_like`
879
880 In order to be able to ignore newline tokens when not relevant, but
881 still include them in the parse when needed, we will need to know
882 which states can start a "line-like" section of code.  We ignore
883 newlines when there is an indent since the most recent start of a
884 line-like symbol.
885
886 A "line_like" symbol is simply any symbol that can derive a NEWLINE.
887 If a symbol cannot derive a NEWLINE, then it is only part of a line -
888 so is word-like.  If it can derive a NEWLINE, then we consider it to
889 be like a line.
890
891 Clearly the `TK_newline` token can derive a NEWLINE.  Any symbol which
892 is the head of a production that contains a line_like symbol is also a
893 line-like symbol.  We use a new field `line_like` to record this
894 attribute of symbols, and compute it in a repetitive manner similar to
895 `set_nullable`.
896
897 ###### symbol fields
898         int line_like;
899
900 ###### functions
901         static void set_line_like(struct grammar *g)
902         {
903                 int check_again = 1;
904                 g->symtab[TK_newline]->line_like = 1;
905                 while (check_again) {
906                         int p;
907                         check_again = 0;
908                         for (p = 0; p < g->production_count; p++) {
909                                 struct production *pr = g->productions[p];
910                                 int s;
911
912                                 if (pr->head->line_like)
913                                         continue;
914
915                                 for (s = 0 ; s < pr->body_size; s++) {
916                                         if (pr->body[s]->line_like) {
917                                                 pr->head->line_like = 1;
918                                                 check_again = 1;
919                                                 break;
920                                         }
921                                 }
922                         }
923                 }
924         }
925
926 ### Building the `first` sets
927
928 When calculating what can follow a particular non-terminal, we will need to
929 know what the "first" terminal in any subsequent non-terminal might be.  So
930 we calculate the `first` set for every non-terminal and store them in an
931 array.  We don't bother recording the "first" set for terminals as they are
932 trivial.
933
934 As the "first" for one symbol might depend on the "first" of another,
935 we repeat the calculations until no changes happen, just like with
936 `set_nullable`.  This makes use of the fact that `symset_union`
937 reports if any change happens.
938
939 The core of this, which finds the "first" of part of a production body,
940 will be reused for computing the "follow" sets, so we split it out
941 into a separate function.
942
943 ###### grammar fields
944         struct symset *first;
945
946 ###### functions
947
948         static int add_first(struct production *pr, int start,
949                              struct symset *target, struct grammar *g,
950                              int *to_end)
951         {
952                 int s;
953                 int changed = 0;
954                 for (s = start; s < pr->body_size; s++) {
955                         struct symbol *bs = pr->body[s];
956                         if (bs->type == Terminal) {
957                                 if (symset_find(target, bs->num) < 0) {
958                                         symset_add(target, bs->num, 0);
959                                         changed = 1;
960                                 }
961                                 break;
962                         } else if (symset_union(target, &g->first[bs->num]))
963                                 changed = 1;
964                         if (!bs->nullable)
965                                 break;
966                 }
967                 if (to_end)
968                         *to_end = (s == pr->body_size);
969                 return changed;
970         }
971
972         static void build_first(struct grammar *g)
973         {
974                 int check_again = 1;
975                 int s;
976                 g->first = calloc(g->num_syms, sizeof(g->first[0]));
977                 for (s = 0; s < g->num_syms; s++)
978                         g->first[s] = INIT_SYMSET;
979
980                 while (check_again) {
981                         int p;
982                         check_again = 0;
983                         for (p = 0; p < g->production_count; p++) {
984                                 struct production *pr = g->productions[p];
985                                 struct symset *head = &g->first[pr->head->num];
986
987                                 if (add_first(pr, 0, head, g, NULL))
988                                         check_again = 1;
989                         }
990                 }
991         }
992
993 ### Building the `follow` sets.
994
995 There are two different situations when we will want to generate "follow"
996 sets.  If we are doing an SLR analysis, we want to generate a single
997 "follow" set for each non-terminal in the grammar.  That is what is
998 happening here.  If we are doing an LALR or LR analysis we will want
999 to generate a separate "LA" set for each item.  We do that later
1000 in state generation.
1001
1002 There are two parts to generating a "follow" set.  Firstly we look at
1003 every place that any non-terminal appears in the body of any
1004 production, and we find the set of possible "first" symbols after
1005 there.  This is done using `add_first` above and only needs to be done
1006 once as the "first" sets are now stable and will not change.
1007
1008 ###### follow code
1009
1010         for (p = 0; p < g->production_count; p++) {
1011                 struct production *pr = g->productions[p];
1012                 int b;
1013
1014                 for (b = 0; b < pr->body_size - 1; b++) {
1015                         struct symbol *bs = pr->body[b];
1016                         if (bs->type == Terminal)
1017                                 continue;
1018                         add_first(pr, b+1, &g->follow[bs->num], g, NULL);
1019                 }
1020         }
1021
1022 The second part is to add the "follow" set of the head of a production
1023 to the "follow" sets of the final symbol in the production, and any
1024 other symbol which is followed only by `nullable` symbols.  As this
1025 depends on "follow" itself we need to repeatedly perform the process
1026 until no further changes happen.
1027
1028 ###### follow code
1029
1030         for (again = 0, p = 0;
1031              p < g->production_count;
1032              p < g->production_count-1
1033                 ? p++ : again ? (again = 0, p = 0)
1034                               : p++) {
1035                 struct production *pr = g->productions[p];
1036                 int b;
1037
1038                 for (b = pr->body_size - 1; b >= 0; b--) {
1039                         struct symbol *bs = pr->body[b];
1040                         if (bs->type == Terminal)
1041                                 break;
1042                         if (symset_union(&g->follow[bs->num],
1043                                          &g->follow[pr->head->num]))
1044                                 again = 1;
1045                         if (!bs->nullable)
1046                                 break;
1047                 }
1048         }
1049
1050 We now just need to create and initialise the `follow` list to get a
1051 complete function.
1052
1053 ###### grammar fields
1054         struct symset *follow;
1055
1056 ###### functions
1057         static void build_follow(struct grammar *g)
1058         {
1059                 int s, again, p;
1060                 g->follow = calloc(g->num_syms, sizeof(g->follow[0]));
1061                 for (s = 0; s < g->num_syms; s++)
1062                         g->follow[s] = INIT_SYMSET;
1063                 ## follow code
1064         }
1065
1066 ### Building itemsets and states
1067
1068 There are three different levels of detail that can be chosen for
1069 building the itemsets and states for the LR grammar.  They are:
1070
1071 1. LR(0) or SLR(1), where no look-ahead is considered.
1072 2. LALR(1) where we build look-ahead sets with each item and merge
1073    the LA sets when we find two paths to the same "kernel" set of items.
1074 3. LR(1) where different look-ahead for any item in the set means
1075    a different state must be created.
1076
1077 ###### forward declarations
1078         enum grammar_type { LR0, LR05, SLR, LALR, LR1 };
1079
1080 We need to be able to look through existing states to see if a newly
1081 generated state already exists.  For now we use a simple sorted linked
1082 list.
1083
1084 An item is a pair of numbers: the production number and the position of
1085 "DOT", which is an index into the body of the production.
1086 As the numbers are not enormous we can combine them into a single "short"
1087 and store them in a `symset` - 4 bits for "DOT" and 12 bits for the
1088 production number (so 4000 productions with maximum of 15 symbols in the
1089 body).
1090
1091 Comparing the itemsets will be a little different to comparing symsets
1092 as we want to do the lookup after generating the "kernel" of an
1093 itemset, so we need to ignore the offset=zero items which are added during
1094 completion.
1095
1096 To facilitate this, we modify the "DOT" number so that "0" sorts to
1097 the end of the list in the symset, and then only compare items before
1098 the first "0".
1099
1100 ###### declarations
1101         static inline unsigned short item_num(int production, int index)
1102         {
1103                 return production | ((31-index) << 11);
1104         }
1105         static inline int item_prod(unsigned short item)
1106         {
1107                 return item & 0x7ff;
1108         }
1109         static inline int item_index(unsigned short item)
1110         {
1111                 return (31-(item >> 11)) & 0x1f;
1112         }
1113
1114 For LR(1) analysis we need to compare not just the itemset in a state
1115 but also the LA sets.  As we assign each unique LA set a number, we
1116 can just compare the symset and the data values together.
1117
1118 ###### functions
1119         static int itemset_cmp(struct symset a, struct symset b,
1120                                enum grammar_type type)
1121         {
1122                 int i;
1123                 int av, bv;
1124
1125                 for (i = 0;
1126                      i < a.cnt && i < b.cnt &&
1127                      item_index(a.syms[i]) > 0 &&
1128                      item_index(b.syms[i]) > 0;
1129                      i++) {
1130                         int diff = a.syms[i] - b.syms[i];
1131                         if (diff)
1132                                 return diff;
1133                         if (type == LR1) {
1134                                 diff = a.data[i] - b.data[i];
1135                                 if (diff)
1136                                         return diff;
1137                         }
1138                 }
1139                 if (i == a.cnt || item_index(a.syms[i]) == 0)
1140                         av = -1;
1141                 else
1142                         av = a.syms[i];
1143                 if (i == b.cnt || item_index(b.syms[i]) == 0)
1144                         bv = -1;
1145                 else
1146                         bv = b.syms[i];
1147                 if (av - bv)
1148                         return av - bv;
1149                 if (type < LR1 || av == -1)
1150                         return 0;
1151                 return
1152                         a.data[i] - b.data[i];
1153         }
1154
1155 It will be helpful to know if an itemset has been "completed" or not,
1156 particularly for LALR where itemsets get merged, at which point they
1157 need to be consider for completion again.  So  a `completed` flag is needed.
1158
1159 For correct handling of `TK_newline` when parsing, we will need to
1160 know which states (itemsets) can occur at the start of a line, so we
1161 will record a `starts_line` flag too whenever DOT is at the start of a
1162 `line_like` symbol.
1163
1164 Finally, for handling `TK_out` we need to know whether productions in the
1165 current state started *before* the most recent indent.  A state
1166 doesn't usually keep details of individual productions, so we need to
1167 add one extra detail. `min_prefix` is the smallest non-zero number of
1168 symbols *before* DOT in any production in an itemset.  This will allow
1169 us to determine if the the most recent indent is sufficiently recent
1170 to cancel it against a `TK_out`.  If it was seen longer ago than the
1171 `min_prefix`, and if the current state cannot be reduced, then the
1172 indented section must have ended in the middle of a syntactic unit, so
1173 an error must be signaled.
1174
1175 And now we can build the list of itemsets.  The lookup routine returns
1176 both a success flag and a pointer to where in the list an insert
1177 should happen, so we don't need to search a second time.
1178
1179 ###### declarations
1180         struct itemset {
1181                 struct itemset *next;
1182                 short state;
1183                 struct symset items;
1184                 struct symset go_to;
1185                 enum assoc assoc;
1186                 unsigned short precedence;
1187                 char completed;
1188                 char starts_line;
1189                 int min_prefix;
1190         };
1191
1192 ###### grammar fields
1193         struct itemset *items;
1194         int states;
1195
1196 ###### functions
1197         static int itemset_find(struct grammar *g, struct itemset ***where,
1198                                 struct symset kernel, enum grammar_type type)
1199         {
1200                 struct itemset **ip;
1201
1202                 for (ip = &g->items; *ip ; ip = & (*ip)->next) {
1203                         struct itemset *i = *ip;
1204                         int diff;
1205                         diff = itemset_cmp(i->items, kernel, type);
1206                         if (diff < 0)
1207                                 continue;
1208                         if (diff > 0)
1209                                 break;
1210                         /* found */
1211                         *where = ip;
1212                         return 1;
1213                 }
1214                 *where = ip;
1215                 return 0;
1216         }
1217
1218 Adding an itemset may require merging the LA sets if LALR analysis is
1219 happening. If any new LA set adds any symbols that weren't in the old LA set, we
1220 clear the `completed` flag so that the dependants of this itemset will be
1221 recalculated and their LA sets updated.
1222
1223 `add_itemset` must consume the symsets it is passed, either by adding
1224 them to a data structure, of freeing them.
1225
1226         static int add_itemset(struct grammar *g, struct symset ss,
1227                                enum assoc assoc, unsigned short precedence,
1228                                enum grammar_type type)
1229         {
1230                 struct itemset **where, *is;
1231                 int i;
1232                 int found = itemset_find(g, &where, ss, type);
1233                 if (!found) {
1234                         is = calloc(1, sizeof(*is));
1235                         is->state = g->states;
1236                         g->states += 1;
1237                         is->items = ss;
1238                         is->assoc = assoc;
1239                         is->precedence = precedence;
1240                         is->next = *where;
1241                         is->go_to = INIT_DATASET;
1242                         *where = is;
1243                         return is->state;
1244                 }
1245                 is = *where;
1246                 if (type != LALR) {
1247                         symset_free(ss);
1248                         return is->state;
1249                 }
1250                 for (i = 0; i < ss.cnt; i++) {
1251                         struct symset temp = INIT_SYMSET, s;
1252                         if (ss.data[i] == is->items.data[i])
1253                                 continue;
1254                         s = set_find(g, is->items.data[i]);
1255                         symset_union(&temp, &s);
1256                         s = set_find(g, ss.data[i]);
1257                         if (symset_union(&temp, &s)) {
1258                                 is->items.data[i] = save_set(g, temp);
1259                                 is->completed = 0;
1260                         } else
1261                                 symset_free(temp);
1262                 }
1263                 symset_free(ss);
1264                 return is->state;
1265         }
1266
1267 #### The build
1268
1269 To build all the itemsets, we first insert the initial itemset made
1270 from production zero, complete each itemset, and then generate new
1271 itemsets from old until no new ones can be made.
1272
1273 Completing an itemset means finding all the items where "DOT" is followed by
1274 a nonterminal and adding "DOT=0" items for every production from that
1275 non-terminal - providing each item hasn't already been added.
1276
1277 If LA sets are needed, the LA set for each new item is found using
1278 `add_first` which was developed earlier for `FIRST` and `FOLLOW`.  This may
1279 be supplemented by the LA set for the item which produce the new item.
1280
1281 We also collect a set of all symbols which follow "DOT" (in `done`) as this
1282 is used in the next stage.
1283 If any of these symbols are flagged as `line_like`, then this
1284 state must be a `starts_line` state so now is a good time to record that.
1285
1286 When itemsets are created we assign a precedence to the itemset from
1287 the complete item, if there is one.  We ignore the possibility of
1288 there being two and don't (currently) handle precedence in such
1289 grammars.  When completing a grammar we ignore any item where DOT is
1290 followed by a terminal with a precedence lower (numerically higher)
1291 than that for the itemset.  Unless the terminal has right
1292 associativity, we also ignore items where the terminal has the same
1293 precedence.  The result is that unwanted items are still in the
1294 itemset, but the terminal doesn't get into the go to set, so the item
1295 is ineffective.
1296
1297 ###### complete itemset
1298         for (i = 0; i < is->items.cnt; i++) {
1299                 int p = item_prod(is->items.syms[i]);
1300                 int bs = item_index(is->items.syms[i]);
1301                 struct production *pr = g->productions[p];
1302                 int p2;
1303                 struct symbol *s;
1304                 struct symset LA = INIT_SYMSET;
1305                 unsigned short sn = 0;
1306
1307                 if (is->min_prefix == 0 ||
1308                     (bs > 0 && bs < is->min_prefix))
1309                         is->min_prefix = bs;
1310                 if (bs == pr->body_size)
1311                         continue;
1312                 s = pr->body[bs];
1313                 if (s->precedence && is->precedence &&
1314                     is->precedence < s->precedence)
1315                         /* This terminal has a low precedence and
1316                          * shouldn't be shifted
1317                          */
1318                         continue;
1319                 if (s->precedence && is->precedence &&
1320                     is->precedence == s->precedence && s->assoc != Right)
1321                         /* This terminal has a matching precedence and is
1322                          * not Right-associative, so we mustn't shift it.
1323                          */
1324                         continue;
1325                 if (symset_find(&done, s->num) < 0) {
1326                         symset_add(&done, s->num, 0);
1327                         if (s->line_like)
1328                                 is->starts_line = 1;
1329                 }
1330                 if (s->type != Nonterminal)
1331                         continue;
1332                 again = 1;
1333                 if (type >= LALR) {
1334                         // Need the LA set.
1335                         int to_end;
1336                         add_first(pr, bs+1, &LA, g, &to_end);
1337                         if (to_end) {
1338                                 struct symset ss = set_find(g, is->items.data[i]);
1339                                 symset_union(&LA, &ss);
1340                         }
1341                         sn = save_set(g, LA);
1342                         LA = set_find(g, sn);
1343                 }
1344
1345                 /* Add productions for this symbol */
1346                 for (p2 = s->first_production;
1347                      p2 < g->production_count &&
1348                       g->productions[p2]->head == s;
1349                      p2++) {
1350                         int itm = item_num(p2, 0);
1351                         int pos = symset_find(&is->items, itm);
1352                         if (pos < 0) {
1353                                 symset_add(&is->items, itm, sn);
1354                                 /* Will have re-ordered, so start
1355                                  * from beginning again */
1356                                 i = -1;
1357                         } else if (type >= LALR) {
1358                                 struct symset ss = set_find(g, is->items.data[pos]);
1359                                 struct symset tmp = INIT_SYMSET;
1360
1361                                 symset_union(&tmp, &ss);
1362                                 if (symset_union(&tmp, &LA)) {
1363                                         is->items.data[pos] = save_set(g, tmp);
1364                                         i = -1;
1365                                 }else
1366                                         symset_free(tmp);
1367                         }
1368                 }
1369         }
1370
1371 For each symbol we found (and placed in `done`) we collect all the items for
1372 which this symbol is next, and create a new itemset with "DOT" advanced over
1373 the symbol.  This is then added to the collection of itemsets (or merged
1374 with a pre-existing itemset).
1375
1376 ###### derive itemsets
1377         // Now we have a completed itemset, so we need to
1378         // compute all the 'next' itemsets and create them
1379         // if they don't exist.
1380         for (i = 0; i < done.cnt; i++) {
1381                 int j;
1382                 unsigned short state;
1383                 struct symbol *sym = g->symtab[done.syms[i]];
1384                 enum assoc assoc = Non;
1385                 unsigned short precedence = 0;
1386                 struct symset newitemset = INIT_SYMSET;
1387                 if (type >= LALR)
1388                         newitemset = INIT_DATASET;
1389
1390                 for (j = 0; j < is->items.cnt; j++) {
1391                         int itm = is->items.syms[j];
1392                         int p = item_prod(itm);
1393                         int bp = item_index(itm);
1394                         struct production *pr = g->productions[p];
1395                         unsigned short la = 0;
1396                         int pos;
1397
1398                         if (bp == pr->body_size)
1399                                 continue;
1400                         if (pr->body[bp] != sym)
1401                                 continue;
1402                         if (type >= LALR)
1403                                 la = is->items.data[j];
1404                         pos = symset_find(&newitemset, pr->head->num);
1405                         if (bp + 1 == pr->body_size &&
1406                             pr->precedence > 0 &&
1407                             (precedence == 0 ||
1408                              pr->precedence < precedence)) {
1409                                 // new itemset is reducible and has a precedence.
1410                                 precedence = pr->precedence;
1411                                 assoc = pr->assoc;
1412                         }
1413                         if (pos < 0)
1414                                 symset_add(&newitemset, item_num(p, bp+1), la);
1415                         else if (type >= LALR) {
1416                                 // Need to merge la set.
1417                                 int la2 = newitemset.data[pos];
1418                                 if (la != la2) {
1419                                         struct symset ss = set_find(g, la2);
1420                                         struct symset LA = INIT_SYMSET;
1421                                         symset_union(&LA, &ss);
1422                                         ss = set_find(g, la);
1423                                         if (symset_union(&LA, &ss))
1424                                                 newitemset.data[pos] = save_set(g, LA);
1425                                         else
1426                                                 symset_free(LA);
1427                                 }
1428                         }
1429                 }
1430                 state = add_itemset(g, newitemset, assoc, precedence, type);
1431                 if (symset_find(&is->go_to, done.syms[i]) < 0)
1432                         symset_add(&is->go_to, done.syms[i], state);
1433         }
1434
1435 All that is left is to create the initial itemset from production zero, and
1436 with `TK_eof` as the LA set.
1437
1438 ###### functions
1439         static void build_itemsets(struct grammar *g, enum grammar_type type)
1440         {
1441                 struct symset first = INIT_SYMSET;
1442                 struct itemset *is;
1443                 int again;
1444                 unsigned short la = 0;
1445                 if (type >= LALR) {
1446                         // LA set just has eof
1447                         struct symset eof = INIT_SYMSET;
1448                         symset_add(&eof, TK_eof, 0);
1449                         la = save_set(g, eof);
1450                         first = INIT_DATASET;
1451                 }
1452                 // production 0, offset 0 (with no data)
1453                 symset_add(&first, item_num(0, 0), la);
1454                 add_itemset(g, first, Non, 0, type);
1455                 for (again = 0, is = g->items;
1456                      is;
1457                      is = is->next ?: again ? (again = 0, g->items) : NULL) {
1458                         int i;
1459                         struct symset done = INIT_SYMSET;
1460                         if (is->completed)
1461                                 continue;
1462                         is->completed = 1;
1463                         again = 1;
1464                         ## complete itemset
1465                         ## derive itemsets
1466                         symset_free(done);
1467                 }
1468         }
1469
1470 ### Completing the analysis.
1471
1472 The exact process of analysis depends on which level was requested.  For
1473 `LR0` and `LR05` we don't need first and follow sets at all.  For `LALR` and
1474 `LR1` we need first, but not follow.  For `SLR` we need both.
1475
1476 We don't build the "action" tables that you might expect as the parser
1477 doesn't use them.  They will be calculated to some extent if needed for
1478 a report.
1479
1480 Once we have built everything we allocate arrays for the two lists:
1481 symbols and itemsets.  This allows more efficient access during reporting.
1482 The symbols are grouped as terminals and non-terminals and we record the
1483 changeover point in `first_nonterm`.
1484
1485 ###### grammar fields
1486         struct symbol **symtab;
1487         struct itemset **statetab;
1488         int first_nonterm;
1489
1490 ###### grammar_analyse
1491
1492         static void grammar_analyse(struct grammar *g, enum grammar_type type)
1493         {
1494                 struct symbol *s;
1495                 struct itemset *is;
1496                 int snum = TK_reserved;
1497                 for (s = g->syms; s; s = s->next)
1498                         if (s->num < 0 && s->type == Terminal) {
1499                                 s->num = snum;
1500                                 snum++;
1501                         }
1502                 g->first_nonterm = snum;
1503                 for (s = g->syms; s; s = s->next)
1504                         if (s->num < 0) {
1505                                 s->num = snum;
1506                                 snum++;
1507                         }
1508                 g->num_syms = snum;
1509                 g->symtab = calloc(g->num_syms, sizeof(g->symtab[0]));
1510                 for (s = g->syms; s; s = s->next)
1511                         g->symtab[s->num] = s;
1512
1513                 set_nullable(g);
1514                 set_line_like(g);
1515                 if (type >= SLR)
1516                         build_first(g);
1517
1518                 if (type == SLR)
1519                         build_follow(g);
1520
1521                 build_itemsets(g, type);
1522
1523                 g->statetab = calloc(g->states, sizeof(g->statetab[0]));
1524                 for (is = g->items; is ; is = is->next)
1525                         g->statetab[is->state] = is;
1526         }
1527
1528 ## Reporting on the Grammar
1529
1530 The purpose of the report is to give the grammar developer insight into
1531 how the grammar parser will work.  It is basically a structured dump of
1532 all the tables that have been generated, plus a description of any conflicts.
1533
1534 ###### grammar_report
1535         static int grammar_report(struct grammar *g, enum grammar_type type)
1536         {
1537                 report_symbols(g);
1538                 if (g->follow)
1539                         report_follow(g);
1540                 report_itemsets(g);
1541                 return report_conflicts(g, type);
1542         }
1543
1544 Firstly we have the complete list of symbols, together with the
1545 "FIRST" set if that was generated.  We add a mark to each symbol to
1546 show if it can end in a newline (`>`), if it is considered to be
1547 "line-like" (`<`), or if it is nullable (`.`).
1548
1549 ###### functions
1550
1551         static void report_symbols(struct grammar *g)
1552         {
1553                 int n;
1554                 if (g->first)
1555                         printf("SYMBOLS + FIRST:\n");
1556                 else
1557                         printf("SYMBOLS:\n");
1558
1559                 for (n = 0; n < g->num_syms; n++) {
1560                         struct symbol *s = g->symtab[n];
1561                         if (!s)
1562                                 continue;
1563
1564                         printf(" %c%c%3d%c: ",
1565                                s->nullable ? '.':' ',
1566                                s->line_like ? '<':' ',
1567                                s->num, symtypes[s->type]);
1568                         prtxt(s->name);
1569                         if (s->precedence)
1570                                 printf(" (%d%s)", s->precedence,
1571                                        assoc_names[s->assoc]);
1572
1573                         if (g->first && s->type == Nonterminal) {
1574                                 int j;
1575                                 char c = ':';
1576                                 for (j = 0; j < g->first[n].cnt; j++) {
1577                                         printf("%c ", c);
1578                                         c = ',';
1579                                         prtxt(g->symtab[g->first[n].syms[j]]->name);
1580                                 }
1581                         }
1582                         printf("\n");
1583                 }
1584         }
1585
1586 Then we have the follow sets if they were computed.
1587
1588         static void report_follow(struct grammar *g)
1589         {
1590                 int n;
1591                 printf("FOLLOW:\n");
1592                 for (n = 0; n < g->num_syms; n++)
1593                         if (g->follow[n].cnt) {
1594                                 int j;
1595                                 char c = ':';
1596                                 printf("  ");
1597                                 prtxt(g->symtab[n]->name);
1598                                 for (j = 0; j < g->follow[n].cnt; j++) {
1599                                         printf("%c ", c);
1600                                         c = ',';
1601                                         prtxt(g->symtab[g->follow[n].syms[j]]->name);
1602                                 }
1603                                 printf("\n");
1604                         }
1605         }
1606
1607 And finally the item sets.  These include the GO TO tables and, for
1608 LALR and LR1, the LA set for each item.  Lots of stuff, so we break
1609 it up a bit.  First the items, with production number and associativity.
1610
1611         static void report_item(struct grammar *g, int itm)
1612         {
1613                 int p = item_prod(itm);
1614                 int dot = item_index(itm);
1615                 struct production *pr = g->productions[p];
1616                 int i;
1617
1618                 printf("    ");
1619                 prtxt(pr->head->name);
1620                 printf(" ->");
1621                 for (i = 0; i < pr->body_size; i++) {
1622                         printf(" %s", (dot == i ? ". ": ""));
1623                         prtxt(pr->body[i]->name);
1624                 }
1625                 if (dot == pr->body_size)
1626                         printf(" .");
1627                 printf(" [%d]", p);
1628                 if (pr->precedence && dot == pr->body_size)
1629                         printf(" (%d%s)", pr->precedence,
1630                                assoc_names[pr->assoc]);
1631                 if (dot < pr->body_size &&
1632                     pr->body[dot]->precedence) {
1633                         struct symbol *s = pr->body[dot];
1634                         printf(" [%d%s]", s->precedence,
1635                                assoc_names[s->assoc]);
1636                 }
1637                 printf("\n");
1638         }
1639
1640 The LA sets which are (possibly) reported with each item:
1641
1642         static void report_la(struct grammar *g, int lanum)
1643         {
1644                 struct symset la = set_find(g, lanum);
1645                 int i;
1646                 char c = ':';
1647
1648                 printf("        LOOK AHEAD(%d)", lanum);
1649                 for (i = 0; i < la.cnt; i++) {
1650                         printf("%c ", c);
1651                         c = ',';
1652                         prtxt(g->symtab[la.syms[i]]->name);
1653                 }
1654                 printf("\n");
1655         }
1656
1657 Then the go to sets:
1658
1659         static void report_goto(struct grammar *g, struct symset gt)
1660         {
1661                 int i;
1662                 printf("    GOTO:\n");
1663
1664                 for (i = 0; i < gt.cnt; i++) {
1665                         printf("      ");
1666                         prtxt(g->symtab[gt.syms[i]]->name);
1667                         printf(" -> %d\n", gt.data[i]);
1668                 }
1669         }
1670
1671 Now we can report all the item sets complete with items, LA sets, and GO TO.
1672
1673         static void report_itemsets(struct grammar *g)
1674         {
1675                 int s;
1676                 printf("ITEM SETS(%d)\n", g->states);
1677                 for (s = 0; s < g->states; s++) {
1678                         int j;
1679                         struct itemset *is = g->statetab[s];
1680                         printf("  Itemset %d:%s min prefix=%d",
1681                                s, is->starts_line?" (startsline)":"", is->min_prefix);
1682                         if (is->precedence)
1683                                 printf(" %d%s", is->precedence, assoc_names[is->assoc]);
1684                         printf("\n");
1685                         for (j = 0; j < is->items.cnt; j++) {
1686                                 report_item(g, is->items.syms[j]);
1687                                 if (is->items.data != NO_DATA)
1688                                         report_la(g, is->items.data[j]);
1689                         }
1690                         report_goto(g, is->go_to);
1691                 }
1692         }
1693
1694 ### Reporting conflicts
1695
1696 Conflict detection varies a lot among different analysis levels.  However
1697 LR0 and LR0.5 are quite similar - having no follow sets, and SLR, LALR and
1698 LR1 are also similar as they have FOLLOW or LA sets.
1699
1700 ###### functions
1701
1702         ## conflict functions
1703
1704         static int report_conflicts(struct grammar *g, enum grammar_type type)
1705         {
1706                 int cnt = 0;
1707                 printf("Conflicts:\n");
1708                 if (type < SLR)
1709                         cnt = conflicts_lr0(g, type);
1710                 else
1711                         cnt = conflicts_slr(g, type);
1712                 if (cnt == 0)
1713                         printf(" - no conflicts\n");
1714                 return cnt;
1715         }
1716
1717 LR0 conflicts are any state which have both a reducible item and
1718 a shiftable item, or two reducible items.
1719
1720 LR05 conflicts only occur if two possible reductions exist,
1721 as shifts always over-ride reductions.
1722
1723 ###### conflict functions
1724         static int conflicts_lr0(struct grammar *g, enum grammar_type type)
1725         {
1726                 int i;
1727                 int cnt = 0;
1728                 for (i = 0; i < g->states; i++) {
1729                         struct itemset *is = g->statetab[i];
1730                         int last_reduce = -1;
1731                         int prev_reduce = -1;
1732                         int last_shift = -1;
1733                         int j;
1734                         if (!is)
1735                                 continue;
1736                         for (j = 0; j < is->items.cnt; j++) {
1737                                 int itm = is->items.syms[j];
1738                                 int p = item_prod(itm);
1739                                 int bp = item_index(itm);
1740                                 struct production *pr = g->productions[p];
1741
1742                                 if (bp == pr->body_size) {
1743                                         prev_reduce = last_reduce;
1744                                         last_reduce = j;
1745                                         continue;
1746                                 }
1747                                 if (pr->body[bp]->type == Terminal)
1748                                         last_shift = j;
1749                         }
1750                         if (type == LR0 && last_reduce >= 0 && last_shift >= 0) {
1751                                 printf("  State %d has both SHIFT and REDUCE:\n", i);
1752                                 report_item(g, is->items.syms[last_shift]);
1753                                 report_item(g, is->items.syms[last_reduce]);
1754                                 cnt++;
1755                         }
1756                         if (prev_reduce >= 0) {
1757                                 printf("  State %d has 2 (or more) reducible items\n", i);
1758                                 report_item(g, is->items.syms[prev_reduce]);
1759                                 report_item(g, is->items.syms[last_reduce]);
1760                                 cnt++;
1761                         }
1762                 }
1763                 return cnt;
1764         }
1765
1766 SLR, LALR, and LR1 conflicts happen if two reducible items have over-lapping
1767 look ahead, or if a symbol in a look-ahead can be shifted.  They differ only
1768 in the source of the look ahead set.
1769
1770 We build two datasets to reflect the "action" table: one which maps
1771 terminals to items where that terminal could be shifted and another
1772 which maps terminals to items that could be reduced when the terminal
1773 is in look-ahead.  We report when we get conflicts between the two.
1774
1775 As a special case, if we find a SHIFT/REDUCE conflict, where a
1776 terminal that could be shifted is in the lookahead set of some
1777 reducable item, then set check if the reducable item also have
1778 `TK_newline` in its lookahead set.  If it does, then a newline will
1779 force the reduction, but anything else can reasonably be shifted, so
1780 that isn't really a conflict.  Such apparent conflicts do not get
1781 counted, and are reported as non-critical.  This will not affect a
1782 "traditional" grammar that does not include newlines as token.
1783
1784         static int conflicts_slr(struct grammar *g, enum grammar_type type)
1785         {
1786                 int i;
1787                 int cnt = 0;
1788
1789                 for (i = 0; i < g->states; i++) {
1790                         struct itemset *is = g->statetab[i];
1791                         struct symset shifts = INIT_DATASET;
1792                         struct symset reduce = INIT_DATASET;
1793                         int j;
1794                         if (!is)
1795                                 continue;
1796                         /* First collect the shifts */
1797                         for (j = 0; j < is->items.cnt; j++) {
1798                                 unsigned short itm = is->items.syms[j];
1799                                 int p = item_prod(itm);
1800                                 int bp = item_index(itm);
1801                                 struct production *pr = g->productions[p];
1802
1803                                 if (bp < pr->body_size &&
1804                                     pr->body[bp]->type == Terminal) {
1805                                         /* shiftable */
1806                                         int sym = pr->body[bp]->num;
1807                                         if (symset_find(&shifts, sym) < 0)
1808                                                 symset_add(&shifts, sym, itm);
1809                                 }
1810                         }
1811                         /* Now look for reductions and conflicts */
1812                         for (j = 0; j < is->items.cnt; j++) {
1813                                 unsigned short itm = is->items.syms[j];
1814                                 int p = item_prod(itm);
1815                                 int bp = item_index(itm);
1816                                 struct production *pr = g->productions[p];
1817
1818                                 if (bp < pr->body_size)
1819                                         continue;
1820                                 /* reducible */
1821                                 struct symset la;
1822                                 if (type == SLR)
1823                                         la = g->follow[pr->head->num];
1824                                 else
1825                                         la = set_find(g, is->items.data[j]);
1826                                 int k;
1827                                 for (k = 0; k < la.cnt; k++) {
1828                                         int pos = symset_find(&shifts, la.syms[k]);
1829                                         if (pos >= 0) {
1830                                                 if (symset_find(&la, TK_newline) < 0) {
1831                                                         printf("  State %d has SHIFT/REDUCE conflict on ", i);
1832                                                         cnt++;
1833                                                 } else
1834                                                         printf("  State %d has non-critical SHIFT/REDUCE conflict on ", i);
1835                                                 prtxt(g->symtab[la.syms[k]]->name);
1836                                                 printf(":\n");
1837                                                 report_item(g, shifts.data[pos]);
1838                                                 report_item(g, itm);
1839                                         }
1840                                         pos = symset_find(&reduce, la.syms[k]);
1841                                         if (pos < 0) {
1842                                                 symset_add(&reduce, la.syms[k], itm);
1843                                                 continue;
1844                                         }
1845                                         printf("  State %d has REDUCE/REDUCE conflict on ", i);
1846                                         prtxt(g->symtab[la.syms[k]]->name);
1847                                         printf(":\n");
1848                                         report_item(g, itm);
1849                                         report_item(g, reduce.data[pos]);
1850                                         cnt++;
1851                                 }
1852                         }
1853                         symset_free(shifts);
1854                         symset_free(reduce);
1855                 }
1856                 return cnt;
1857         }
1858
1859 ## Generating the parser
1860
1861 The exported part of the parser is the `parse_XX` function, where the name
1862 `XX` is based on the name of the parser files.
1863
1864 This takes a `code_node`, a partially initialized `token_config`, and an
1865 optional `FILE` to send tracing to.  The `token_config` gets the list of
1866 known words added and then is used with the `code_node` to initialize the
1867 scanner.
1868
1869 `parse_XX` then calls the library function `parser_run` to actually complete
1870 the parse.  This needs the `states` table and function to call the various
1871 pieces of code provided in the grammar file, so they are generated first.
1872
1873 ###### parser_generate
1874
1875         static void gen_parser(FILE *f, struct grammar *g, char *file, char *name,
1876                                struct code_node *pre_reduce)
1877         {
1878                 gen_known(f, g);
1879                 gen_non_term(f, g);
1880                 gen_goto(f, g);
1881                 gen_states(f, g);
1882                 gen_reduce(f, g, file, pre_reduce);
1883                 gen_free(f, g);
1884
1885                 fprintf(f, "#line 0 \"gen_parser\"\n");
1886                 fprintf(f, "void *parse_%s(struct code_node *code, struct token_config *config, FILE *trace)\n",
1887                         name);
1888                 fprintf(f, "{\n");
1889                 fprintf(f, "\tstruct token_state *tokens;\n");
1890                 fprintf(f, "\tconfig->words_marks = known;\n");
1891                 fprintf(f, "\tconfig->known_count = sizeof(known)/sizeof(known[0]);\n");
1892                 fprintf(f, "\tconfig->ignored |= (1 << TK_line_comment) | (1 << TK_block_comment);\n");
1893                 fprintf(f, "\ttokens = token_open(code, config);\n");
1894                 fprintf(f, "\tvoid *rv = parser_run(tokens, states, do_reduce, do_free, trace, non_term, config);\n");
1895                 fprintf(f, "\ttoken_close(tokens);\n");
1896                 fprintf(f, "\treturn rv;\n");
1897                 fprintf(f, "}\n\n");
1898         }
1899
1900 ### Known words table
1901
1902 The known words table is simply an array of terminal symbols.
1903 The table of nonterminals used for tracing is a similar array.
1904
1905 ###### functions
1906
1907         static void gen_known(FILE *f, struct grammar *g)
1908         {
1909                 int i;
1910                 fprintf(f, "#line 0 \"gen_known\"\n");
1911                 fprintf(f, "static const char *known[] = {\n");
1912                 for (i = TK_reserved;
1913                      i < g->num_syms && g->symtab[i]->type == Terminal;
1914                      i++)
1915                         fprintf(f, "\t\"%.*s\",\n", g->symtab[i]->name.len,
1916                                 g->symtab[i]->name.txt);
1917                 fprintf(f, "};\n\n");
1918         }
1919
1920         static void gen_non_term(FILE *f, struct grammar *g)
1921         {
1922                 int i;
1923                 fprintf(f, "#line 0 \"gen_non_term\"\n");
1924                 fprintf(f, "static const char *non_term[] = {\n");
1925                 for (i = TK_reserved;
1926                      i < g->num_syms;
1927                      i++)
1928                         if (g->symtab[i]->type == Nonterminal)
1929                                 fprintf(f, "\t\"%.*s\",\n", g->symtab[i]->name.len,
1930                                         g->symtab[i]->name.txt);
1931                 fprintf(f, "};\n\n");
1932         }
1933
1934 ### States and the goto tables.
1935
1936 For each state we record the goto table, the reducible production if
1937 there is one, or a symbol to shift for error recovery.
1938 Some of the details of the reducible production are stored in the
1939 `do_reduce` function to come later.  Here we store the production number,
1940 the body size (useful for stack management) and the resulting symbol (useful
1941 for knowing how to free data later).
1942
1943 The go to table is stored in a simple array of `sym` and corresponding
1944 `state`.
1945
1946 ###### exported types
1947
1948         struct lookup {
1949                 short sym;
1950                 short state;
1951         };
1952         struct state {
1953                 short go_to_cnt;
1954                 const struct lookup * go_to;
1955                 short reduce_prod;
1956                 short reduce_size;
1957                 short reduce_sym;
1958                 short starts_line;
1959                 short min_prefix;
1960         };
1961
1962 ###### functions
1963
1964         static void gen_goto(FILE *f, struct grammar *g)
1965         {
1966                 int i;
1967                 fprintf(f, "#line 0 \"gen_goto\"\n");
1968                 for (i = 0; i < g->states; i++) {
1969                         int j;
1970                         fprintf(f, "static const struct lookup goto_%d[] = {\n",
1971                                 i);
1972                         struct symset gt = g->statetab[i]->go_to;
1973                         for (j = 0; j < gt.cnt; j++)
1974                                 fprintf(f, "\t{ %d, %d },\n",
1975                                         gt.syms[j], gt.data[j]);
1976                         fprintf(f, "};\n");
1977                 }
1978         }
1979
1980 ###### functions
1981
1982         static void gen_states(FILE *f, struct grammar *g)
1983         {
1984                 int i;
1985                 fprintf(f, "#line 0 \"gen_states\"\n");
1986                 fprintf(f, "static const struct state states[] = {\n");
1987                 for (i = 0; i < g->states; i++) {
1988                         struct itemset *is = g->statetab[i];
1989                         int j, prod = -1, prod_len;
1990
1991                         for (j = 0; j < is->items.cnt; j++) {
1992                                 int itm = is->items.syms[j];
1993                                 int p = item_prod(itm);
1994                                 int bp = item_index(itm);
1995                                 struct production *pr = g->productions[p];
1996
1997                                 if (bp < pr->body_size)
1998                                         continue;
1999                                 /* This is what we reduce */
2000                                 if (prod < 0 || prod_len < pr->body_size) {
2001                                         prod = p;
2002                                         prod_len = pr->body_size;
2003                                 }
2004                         }
2005
2006                         if (prod >= 0)
2007                                 fprintf(f, "\t[%d] = { %d, goto_%d, %d, %d, %d, %d, %d },\n",
2008                                         i, is->go_to.cnt, i, prod,
2009                                         g->productions[prod]->body_size,
2010                                         g->productions[prod]->head->num,
2011                                         is->starts_line, is->min_prefix);
2012                         else
2013                                 fprintf(f, "\t[%d] = { %d, goto_%d, -1, -1, -1, %d, %d },\n",
2014                                         i, is->go_to.cnt, i,
2015                                         is->starts_line, is->min_prefix);
2016                 }
2017                 fprintf(f, "};\n\n");
2018         }
2019
2020 ### The `do_reduce` function and the code
2021
2022 When the parser engine decides to reduce a production, it calls `do_reduce`.
2023 This has two functions.
2024
2025 Firstly, if a non-NULL `trace` file is passed, it prints out details of the
2026 production being reduced.  Secondly it runs the code that was included with
2027 the production if any.
2028
2029 This code needs to be able to store data somewhere.  Rather than requiring
2030 `do_reduce` to `malloc` that "somewhere", we pass in a large buffer and have
2031 `do_reduce` return the size to be saved.
2032
2033 In order for the code to access "global" context, we pass in the
2034 "config" pointer that was passed to parser function.  If the `struct
2035 token_config` is embedded in some larger structure, the reducing code
2036 can access the larger structure using pointer manipulation.
2037
2038 The code fragment requires translation when written out.  Any `$N` needs to
2039 be converted to a reference either to that buffer (if `$0`) or to the
2040 structure returned by a previous reduction.  These pointers need to be cast
2041 to the appropriate type for each access.  All this is handled in
2042 `gen_code`.
2043
2044 `gen_code` also allows symbol references to contain a '`<`' as in '`$<2`'.
2045 This applied only to symbols with references (or pointers), not those with structures.
2046 The `<` implies that the reference it being moved out, so the object will not be
2047 automatically freed.  This is equivalent to assigning `NULL` to the pointer.
2048
2049 ###### functions
2050
2051         static void gen_code(struct production *p, FILE *f, struct grammar *g)
2052         {
2053                 char *c;
2054                 char *used = calloc(1, p->body_size);
2055                 int i;
2056
2057                 fprintf(f, "\t\t\t");
2058                 for (c = p->code.txt; c < p->code.txt + p->code.len; c++) {
2059                         int n;
2060                         int use = 0;
2061                         if (*c != '$') {
2062                                 fputc(*c, f);
2063                                 if (*c == '\n')
2064                                         fputs("\t\t\t", f);
2065                                 continue;
2066                         }
2067                         c++;
2068                         if (*c == '<') {
2069                                 use = 1;
2070                                 c++;
2071                         }
2072                         if (*c < '0' || *c > '9') {
2073                                 if (use)
2074                                         fputc('<', f);
2075                                 fputc(*c, f);
2076                                 continue;
2077                         }
2078                         n = *c - '0';
2079                         while (c[1] >= '0' && c[1] <= '9') {
2080                                 c += 1;
2081                                 n = n * 10 + *c - '0';
2082                         }
2083                         if (n == 0)
2084                                 fprintf(f, "(*(struct %.*s*%s)ret)",
2085                                         p->head->struct_name.len,
2086                                         p->head->struct_name.txt,
2087                                         p->head->isref ? "*":"");
2088                         else if (n > p->body_size)
2089                                 fprintf(f, "$%d", n);
2090                         else if (p->body[n-1]->type == Terminal)
2091                                 fprintf(f, "(*(struct token *)body[%d])",
2092                                         n-1);
2093                         else if (p->body[n-1]->struct_name.txt == NULL)
2094                                 fprintf(f, "$%d", n);
2095                         else {
2096                                 fprintf(f, "(*(struct %.*s*%s)body[%d])",
2097                                         p->body[n-1]->struct_name.len,
2098                                         p->body[n-1]->struct_name.txt,
2099                                         p->body[n-1]->isref ? "*":"", n-1);
2100                                 used[n-1] = use;
2101                         }
2102                 }
2103                 fputs("\n", f);
2104                 for (i = 0; i < p->body_size; i++) {
2105                         if (p->body[i]->struct_name.txt &&
2106                             p->body[i]->isref &&
2107                             used[i])
2108                                 // assume this has been copied out
2109                                 fprintf(f, "\t\t*(void**)body[%d] = NULL;\n", i);
2110                 }
2111                 free(used);
2112         }
2113
2114 ###### functions
2115
2116         static void gen_reduce(FILE *f, struct grammar *g, char *file,
2117                                struct code_node *code)
2118         {
2119                 int i;
2120                 fprintf(f, "#line 1 \"gen_reduce\"\n");
2121                 fprintf(f, "static int do_reduce(int prod, void **body, struct token_config *config, void *ret)\n");
2122                 fprintf(f, "{\n");
2123                 fprintf(f, "\tint ret_size = 0;\n");
2124                 if (code)
2125                         code_node_print(f, code, file);
2126
2127                 fprintf(f, "#line 4 \"gen_reduce\"\n");
2128                 fprintf(f, "\tswitch(prod) {\n");
2129                 for (i = 0; i < g->production_count; i++) {
2130                         struct production *p = g->productions[i];
2131                         fprintf(f, "\tcase %d:\n", i);
2132
2133                         if (p->code.txt) {
2134                                 fprintf(f, "#line %d \"%s\"\n", p->code_line, file);
2135                                 gen_code(p, f, g);
2136                         }
2137
2138                         if (p->head->struct_name.txt)
2139                                 fprintf(f, "\t\tret_size = sizeof(struct %.*s%s);\n",
2140                                         p->head->struct_name.len,
2141                                         p->head->struct_name.txt,
2142                                         p->head->isref ? "*":"");
2143
2144                         fprintf(f, "\t\tbreak;\n");
2145                 }
2146                 fprintf(f, "\t}\n\treturn ret_size;\n}\n\n");
2147         }
2148
2149 ### `do_free`
2150
2151 As each non-terminal can potentially cause a different type of data
2152 structure to be allocated and filled in, we need to be able to free it when
2153 done.
2154
2155 It is particularly important to have fine control over freeing during error
2156 recovery where individual stack frames might need to be freed.
2157
2158 For this, the grammar author is required to defined a `free_XX` function for
2159 each structure that is used by a non-terminal.  `do_free` will call whichever
2160 is appropriate given a symbol number, and will call `free` (as is
2161 appropriate for tokens) on any terminal symbol.
2162
2163 ###### functions
2164
2165         static void gen_free(FILE *f, struct grammar *g)
2166         {
2167                 int i;
2168
2169                 fprintf(f, "#line 0 \"gen_free\"\n");
2170                 fprintf(f, "static void do_free(short sym, void *asn)\n");
2171                 fprintf(f, "{\n");
2172                 fprintf(f, "\tif (!asn) return;\n");
2173                 fprintf(f, "\tif (sym < %d) {\n", g->first_nonterm);
2174                 fprintf(f, "\t\tfree(asn);\n\t\treturn;\n\t}\n");
2175                 fprintf(f, "\tswitch(sym) {\n");
2176
2177                 for (i = 0; i < g->num_syms; i++) {
2178                         struct symbol *s = g->symtab[i];
2179                         if (!s ||
2180                             s->type != Nonterminal ||
2181                             s->struct_name.txt == NULL)
2182                                 continue;
2183
2184                         fprintf(f, "\tcase %d:\n", s->num);
2185                         if (s->isref) {
2186                                 fprintf(f, "\t\tfree_%.*s(*(void**)asn);\n",
2187                                         s->struct_name.len,
2188                                         s->struct_name.txt);
2189                                 fprintf(f, "\t\tfree(asn);\n");
2190                         } else
2191                                 fprintf(f, "\t\tfree_%.*s(asn);\n",
2192                                         s->struct_name.len,
2193                                         s->struct_name.txt);
2194                         fprintf(f, "\t\tbreak;\n");
2195                 }
2196                 fprintf(f, "\t}\n}\n\n");
2197         }
2198
2199 ## The main routine.
2200
2201 There are three key parts to the "main" function of parsergen: processing
2202 the arguments, loading the grammar file, and dealing with the grammar.
2203
2204 ### Argument processing.
2205
2206 Command line options allow the selection of analysis mode, name of output
2207 file, and whether or not a report should be generated.  By default we create
2208 a report only if no code output was requested.
2209
2210 The `parse_XX` function name uses the basename of the output file which
2211 should not have a suffix (`.c`).  `.c` is added to the given name for the
2212 code, and `.h` is added for the header (if header text is specifed in the
2213 grammar file).
2214
2215 ###### includes
2216         #include <getopt.h>
2217
2218 ###### declarations
2219         static const struct option long_options[] = {
2220                 { "LR0",        0, NULL, '0' },
2221                 { "LR05",       0, NULL, '5' },
2222                 { "SLR",        0, NULL, 'S' },
2223                 { "LALR",       0, NULL, 'L' },
2224                 { "LR1",        0, NULL, '1' },
2225                 { "tag",        1, NULL, 't' },
2226                 { "report",     0, NULL, 'R' },
2227                 { "output",     1, NULL, 'o' },
2228                 { NULL,         0, NULL, 0   }
2229         };
2230         const char *options = "05SL1t:Ro:";
2231
2232 ###### process arguments
2233         int opt;
2234         char *outfile = NULL;
2235         char *infile;
2236         char *name;
2237         char *tag = NULL;
2238         int report = 1;
2239         enum grammar_type type = LR05;
2240         while ((opt = getopt_long(argc, argv, options,
2241                                   long_options, NULL)) != -1) {
2242                 switch(opt) {
2243                 case '0':
2244                         type = LR0; break;
2245                 case '5':
2246                         type = LR05; break;
2247                 case 'S':
2248                         type = SLR; break;
2249                 case 'L':
2250                         type = LALR; break;
2251                 case '1':
2252                         type = LR1; break;
2253                 case 'R':
2254                         report = 2; break;
2255                 case 'o':
2256                         outfile = optarg; break;
2257                 case 't':
2258                         tag = optarg; break;
2259                 default:
2260                         fprintf(stderr, "Usage: parsergen ...\n");
2261                         exit(1);
2262                 }
2263         }
2264         if (optind < argc)
2265                 infile = argv[optind++];
2266         else {
2267                 fprintf(stderr, "No input file given\n");
2268                 exit(1);
2269         }
2270         if (outfile && report == 1)
2271                 report = 0;
2272         name = outfile;
2273         if (name && strchr(name, '/'))
2274                 name = strrchr(name, '/')+1;
2275
2276         if (optind < argc) {
2277                 fprintf(stderr, "Excess command line arguments\n");
2278                 exit(1);
2279         }
2280
2281 ### Loading the grammar file
2282
2283 To be able to run `mdcode` and `scanner` on the grammar we need to memory
2284 map it.
2285
2286 Once we have extracted the code (with `mdcode`) we expect to find three
2287 sections: header, code, and grammar.  Anything else that is not
2288 excluded by the `--tag` option is an error.
2289
2290 "header" and "code" are optional, though it is hard to build a working
2291 parser with neither. "grammar" must be provided.
2292
2293 ###### includes
2294         #include <fcntl.h>
2295         #include <sys/mman.h>
2296         #include <errno.h>
2297
2298 ###### functions
2299         static int errs;
2300         static void pr_err(char *msg)
2301         {
2302                 errs++;
2303                 fprintf(stderr, "%s\n", msg);
2304         }
2305
2306 ###### load file
2307         struct section *table;
2308         int fd;
2309         int len;
2310         char *file;
2311         fd = open(infile, O_RDONLY);
2312         if (fd < 0) {
2313                 fprintf(stderr, "parsergen: cannot open %s: %s\n",
2314                         infile, strerror(errno));
2315                 exit(1);
2316         }
2317         len = lseek(fd, 0, 2);
2318         file = mmap(NULL, len, PROT_READ, MAP_SHARED, fd, 0);
2319         table = code_extract(file, file+len, pr_err);
2320
2321         struct code_node *hdr = NULL;
2322         struct code_node *code = NULL;
2323         struct code_node *gram = NULL;
2324         struct code_node *pre_reduce = NULL;
2325         for (s = table; s; s = s->next) {
2326                 struct text sec = s->section;
2327                 if (tag && !strip_tag(&sec, tag))
2328                         continue;
2329                 if (text_is(sec, "header"))
2330                         hdr = s->code;
2331                 else if (text_is(sec, "code"))
2332                         code = s->code;
2333                 else if (text_is(sec, "grammar"))
2334                         gram = s->code;
2335                 else if (text_is(sec, "reduce"))
2336                         pre_reduce = s->code;
2337                 else {
2338                         fprintf(stderr, "Unknown content section: %.*s\n",
2339                                 s->section.len, s->section.txt);
2340                         rv |= 2;
2341                 }
2342         }
2343
2344 ### Processing the input
2345
2346 As we need to append an extention to a filename and then open it for
2347 writing, and we need to do this twice, it helps to have a separate function.
2348
2349 ###### functions
2350
2351         static FILE *open_ext(char *base, char *ext)
2352         {
2353                 char *fn = malloc(strlen(base) + strlen(ext) + 1);
2354                 FILE *f;
2355                 strcat(strcpy(fn, base), ext);
2356                 f = fopen(fn, "w");
2357                 free(fn);
2358                 return f;
2359         }
2360
2361 If we can read the grammar, then we analyse and optionally report on it.  If
2362 the report finds conflicts we will exit with an error status.
2363
2364 ###### process input
2365         struct grammar *g = NULL;
2366         if (gram == NULL) {
2367                 fprintf(stderr, "No grammar section provided\n");
2368                 rv |= 2;
2369         } else {
2370                 g = grammar_read(gram);
2371                 if (!g) {
2372                         fprintf(stderr, "Failure to parse grammar\n");
2373                         rv |= 2;
2374                 }
2375         }
2376         if (g) {
2377                 grammar_analyse(g, type);
2378                 if (report)
2379                         if (grammar_report(g, type))
2380                                 rv |= 1;
2381         }
2382
2383 If a "headers" section is defined, we write it out and include a declaration
2384 for the `parse_XX` function so it can be used from separate code.
2385
2386         if (rv == 0 && hdr && outfile) {
2387                 FILE *f = open_ext(outfile, ".h");
2388                 if (f) {
2389                         code_node_print(f, hdr, infile);
2390                         fprintf(f, "void *parse_%s(struct code_node *code, struct token_config *config, FILE *trace);\n",
2391                                 name);
2392                         fclose(f);
2393                 } else {
2394                         fprintf(stderr, "Cannot create %s.h\n",
2395                                 outfile);
2396                         rv |= 4;
2397                 }
2398         }
2399
2400 And if all goes well and an output file was provided, we create the `.c`
2401 file with the code section (if any) and the parser tables and function.
2402
2403         if (rv == 0 && outfile) {
2404                 FILE *f = open_ext(outfile, ".c");
2405                 if (f) {
2406                         if (code)
2407                                 code_node_print(f, code, infile);
2408                         gen_parser(f, g, infile, name, pre_reduce);
2409                         fclose(f);
2410                 } else {
2411                         fprintf(stderr, "Cannot create %s.c\n",
2412                                 outfile);
2413                         rv |= 4;
2414                 }
2415         }
2416
2417 And that about wraps it up.  We need to set the locale so that UTF-8 is
2418 recognised properly, and link with `libicuuc` as `libmdcode` requires that.
2419
2420 ###### File: parsergen.mk
2421         parsergen : parsergen.o libscanner.o libmdcode.o
2422                 $(CC) $(CFLAGS) -o parsergen parsergen.o libscanner.o libmdcode.o -licuuc
2423
2424 ###### includes
2425         #include <locale.h>
2426
2427 ###### main
2428
2429         int main(int argc, char *argv[])
2430         {
2431                 struct section *s;
2432                 int rv = 0;
2433
2434                 setlocale(LC_ALL,"");
2435
2436                 ## process arguments
2437                 ## load file
2438                 ## process input
2439
2440                 return rv;
2441         }
2442
2443 ## The SHIFT/REDUCE parser
2444
2445 Having analysed the grammar and generated all the tables, we only need the
2446 shift/reduce engine to bring it all together.
2447
2448 ### Goto table lookup
2449
2450 The parser generator has nicely provided us with goto tables sorted by
2451 symbol number.  We need a binary search function to find a symbol in the
2452 table.
2453
2454 ###### parser functions
2455
2456         static int search(const struct state *l, int sym)
2457         {
2458                 int lo = 0;
2459                 int hi = l->go_to_cnt;
2460
2461                 if (hi == 0)
2462                         return -1;
2463                 while (lo + 1 < hi) {
2464                         int mid = (lo + hi) / 2;
2465                         if (l->go_to[mid].sym <= sym)
2466                                 lo = mid;
2467                         else
2468                                 hi = mid;
2469                 }
2470                 if (l->go_to[lo].sym == sym)
2471                         return l->go_to[lo].state;
2472                 else
2473                         return -1;
2474         }
2475
2476 ### The state stack.
2477
2478 The core data structure for the parser is the stack.  This tracks all the
2479 symbols that have been recognised or partially recognised.
2480
2481 The stack usually won't grow very large - maybe a few tens of entries.  So
2482 we dynamically resize and array as required but never bother to shrink it
2483 down again.
2484
2485 We keep the stack as two separate allocations.  One, `asn_stack` stores the
2486 "abstract syntax nodes" which are created by each reduction.  When we call
2487 `do_reduce` we need to pass an array of the `asn`s of the body of the
2488 production, and by keeping a separate `asn` stack, we can just pass a
2489 pointer into this stack.
2490
2491 The other allocation stores all other stack fields of which there are six.
2492 The `state` is the most important one and guides the parsing process.  The
2493 `sym` is nearly unnecessary.  However when we want to free entries from the
2494 `asn_stack`, it helps to know what type they are so we can call the right
2495 freeing function.  The symbol leads us to the right free function through
2496 `do_free`.
2497
2498 The `indents` count tracks the line indents with-in the symbol or
2499 immediately follow it.  These are used to allow indent information to
2500 guide parsing and error recovery.
2501
2502 `since_newline` tracks how many stack frames since the last
2503 start-of-line (whether indented or not).  So if `since_newline` is
2504 zero, then this symbol is at the start of a line.  Similarly
2505 `since_indent` counts the number of states since an indent, it is zero
2506 precisely when `indents` is not zero.
2507
2508 `newline_permitted` keeps track of whether newlines should be ignored
2509 or not.
2510
2511 The stack is most properly seen as alternating states and symbols -
2512 states, like the 'DOT' in items, are between symbols.  Each frame in
2513 our stack holds a state and the symbol that was before it.  The
2514 bottom of stack holds the start state but no symbol, as nothing came
2515 before the beginning.
2516
2517 ###### parser functions
2518
2519         struct parser {
2520                 struct frame {
2521                         short state;
2522                         short newline_permitted;
2523
2524                         short sym;
2525                         short indents;
2526                         short since_newline;
2527                         short since_indent;
2528                 } *stack;
2529                 void **asn_stack;
2530                 int stack_size;
2531                 int tos;
2532         };
2533
2534 #### Shift and pop
2535
2536 Two operations are needed on the stack - shift (which is like push) and pop.
2537
2538 Shift applies not only to terminals but also to non-terminals.  When
2539 we reduce a production we will pop off entries corresponding to the
2540 body symbols, then push on an item for the head of the production.
2541 This last is exactly the same process as shifting in a terminal so we
2542 use the same function for both.  In both cases we provide the symbol,
2543 the number of indents the symbol contains (which will be zero for a
2544 terminal symbol) and a flag indicating the the symbol was at (or was
2545 reduced from a symbol which was at) the start of a line.  The state is
2546 deduced from the current top-of-stack state and the new symbol.
2547
2548 To simplify other code we arrange for `shift` to fail if there is no `goto`
2549 state for the symbol.  This is useful in basic parsing due to our design
2550 that we shift when we can, and reduce when we cannot.  So the `shift`
2551 function reports if it could.
2552
2553 `shift` is also used to push state zero onto the stack, so if the
2554 stack is empty, it always chooses zero as the next state.
2555
2556 So `shift` finds the next state.  If that succeeds it extends the
2557 allocations if needed and pushes all the information onto the stacks.
2558
2559 Newlines are permitted after a `starts_line` state until an internal
2560 indent.  If the new frame has neither a `starts_line` state nor an
2561 indent, newlines are permitted if the previous stack frame permitted
2562 them.
2563
2564 ###### parser functions
2565
2566         static int shift(struct parser *p,
2567                          short sym, short indents, short start_of_line,
2568                          void *asn,
2569                          const struct state states[])
2570         {
2571                 // Push an entry onto the stack
2572                 struct frame next = {0};
2573                 int newstate = p->tos
2574                         ? search(&states[p->stack[p->tos-1].state],
2575                                  sym)
2576                         : 0;
2577                 if (newstate < 0)
2578                         return 0;
2579                 if (p->tos >= p->stack_size) {
2580                         p->stack_size += 10;
2581                         p->stack = realloc(p->stack, p->stack_size
2582                                            * sizeof(p->stack[0]));
2583                         p->asn_stack = realloc(p->asn_stack, p->stack_size
2584                                            * sizeof(p->asn_stack[0]));
2585                 }
2586                 next.sym = sym;
2587                 next.indents = indents;
2588                 next.state = newstate;
2589                 if (states[newstate].starts_line)
2590                         next.newline_permitted = 1;
2591                 else if (indents)
2592                         next.newline_permitted = 0;
2593                 else if (p->tos)
2594                         next.newline_permitted =
2595                                 p->stack[p->tos-1].newline_permitted;
2596                 else
2597                         next.newline_permitted = 0;
2598
2599                 if (!start_of_line) {
2600                         if (p->tos)
2601                                 next.since_newline = p->stack[p->tos-1].since_newline + 1;
2602                         else
2603                                 next.since_newline = 1;
2604                 }
2605                 if (indents)
2606                         next.since_indent = 0;
2607                 else if (p->tos)
2608                         next.since_indent = p->stack[p->tos-1].since_indent + 1;
2609                 else
2610                         next.since_indent = 1;
2611
2612                 p->stack[p->tos] = next;
2613                 p->asn_stack[p->tos] = asn;
2614                 p->tos++;
2615                 return 1;
2616         }
2617
2618 `pop` primarily moves the top of stack (`tos`) back down the required
2619 amount and frees any `asn` entries that need to be freed.  It also
2620 collects a summary of the indents and line starts in the symbols that
2621 are being removed. It is called _after_ we reduce a production, just
2622 before we `shift` the nonterminal in.
2623
2624 ###### parser functions
2625
2626         static int pop(struct parser *p, int num,
2627                        short *start_of_line,
2628                        void(*do_free)(short sym, void *asn))
2629         {
2630                 int i;
2631                 short indents = 0;
2632                 int sol = 0;
2633
2634                 p->tos -= num;
2635                 for (i = 0; i < num; i++) {
2636                         sol |= !p->stack[p->tos+i].since_newline;
2637                         indents += p->stack[p->tos+i].indents;
2638                         do_free(p->stack[p->tos+i].sym,
2639                                 p->asn_stack[p->tos+i]);
2640                 }
2641                 if (start_of_line)
2642                         *start_of_line = sol;
2643                 return indents;
2644         }
2645
2646 ### Memory allocation
2647
2648 The `scanner` returns tokens in a local variable - we want them in allocated
2649 memory so they can live in the `asn_stack`.  Similarly the `asn` produced by
2650 a reduce is in a large buffer.  Both of these require some allocation and
2651 copying, hence `memdup` and `tokcopy`.
2652
2653 ###### parser includes
2654         #include <memory.h>
2655
2656 ###### parser functions
2657
2658         void *memdup(void *m, int len)
2659         {
2660                 void *ret;
2661                 if (len == 0)
2662                         return NULL;
2663                 ret = malloc(len);
2664                 memcpy(ret, m, len);
2665                 return ret;
2666         }
2667
2668         static struct token *tok_copy(struct token tk)
2669         {
2670                 struct token *new = malloc(sizeof(*new));
2671                 *new = tk;
2672                 return new;
2673         }
2674
2675 ### The heart of the parser.
2676
2677 Now we have the parser.  If we can shift we do, though newlines and
2678 reducing indenting may block that.  If not and we can reduce we do
2679 that.  If the production we reduced was production zero, then we have
2680 accepted the input and can finish.
2681
2682 We return whatever `asn` was returned by reducing production zero.
2683
2684 If we can neither shift nor reduce we have an error to handle.  We pop
2685 single entries off the stack until we can shift the `TK_error` symbol, then
2686 drop input tokens until we find one we can shift into the new error state.
2687
2688 When we find `TK_in` and `TK_out` tokens which report indents we need
2689 to handle them directly as the grammar cannot express what we want to
2690 do with them.
2691
2692 `TK_in` tokens are easy: we simply update indent count in the top stack frame to
2693 record how many indents there are following the previous token.
2694
2695 `TK_out` tokens must be canceled against an indent count
2696 within the stack.  If we can reduce some symbols that are all since
2697 the most recent indent, then we do that first.  If the minimum prefix
2698 of the current state then extends back before the most recent indent,
2699 that indent can be cancelled.  If the minimum prefix is shorter then
2700 the indent had ended prematurely and we must start error handling, which
2701 is still a work-in-progress.
2702
2703 `TK_newline` tokens are ignored unless the top stack frame records
2704 that they are permitted.  In that case they will not be considered for
2705 shifting if it is possible to reduce some symbols that are all since
2706 the most recent start of line.  This is how a newline forcibly
2707 terminates any line-like structure - we try to reduce down to at most
2708 one symbol for each line where newlines are allowed.
2709 A consequence of this is that a rule like
2710
2711 ###### Example: newlines - broken
2712
2713         Newlines ->
2714                 | NEWLINE Newlines
2715         IfStatement -> Newlines if ....
2716
2717 cannot work, as the NEWLINE will never be shifted as the empty string
2718 will be reduced first.  Optional sets of newlines need to be include
2719 in the thing that preceed:
2720
2721 ###### Example: newlines - works
2722
2723         If -> if
2724                 | NEWLINE If
2725         IfStatement -> If ....
2726
2727 Here the NEWLINE will be shifted because nothing can be reduced until
2728 the `if` is seen.
2729
2730 When, during error handling, we discard token read in, we want to keep
2731 discarding until we see one that is recognised.  If we had a full set
2732 of LR(1) grammar states, this will mean looking in the look-ahead set,
2733 but we don't keep a full look-ahead set.  We only record the subset
2734 that leads to SHIFT.  We can, however, deduce the look-ahead set but
2735 looking at the SHIFT subsets for all states that we can get to by
2736 reducing zero or more times.  So we need a little function which
2737 checks if a given token is in any of these look-ahead sets.
2738
2739 ###### parser includes
2740         #include "parser.h"
2741
2742 ###### parser_run
2743
2744         static int in_lookahead(struct token *tk, const struct state *states, int state)
2745         {
2746                 while (state >= 0) {
2747                         if (search(&states[state], tk->num) >= 0)
2748                                 return 1;
2749                         if (states[state].reduce_prod < 0)
2750                                 return 0;
2751                         state = search(&states[state], states[state].reduce_sym);
2752                 }
2753                 return 0;
2754         }
2755
2756         void *parser_run(struct token_state *tokens,
2757                          const struct state states[],
2758                          int (*do_reduce)(int, void**, struct token_config*, void*),
2759                          void (*do_free)(short, void*),
2760                          FILE *trace, const char *non_term[],
2761                          struct token_config *config)
2762         {
2763                 struct parser p = { 0 };
2764                 struct token *tk = NULL;
2765                 int accepted = 0;
2766                 void *ret = NULL;
2767
2768                 shift(&p, TK_eof, 0, 1, NULL, states);
2769                 while (!accepted) {
2770                         struct token *err_tk;
2771                         struct frame *tos = &p.stack[p.tos-1];
2772                         if (!tk)
2773                                 tk = tok_copy(token_next(tokens));
2774                         parser_trace(trace, &p,
2775                                      tk, states, non_term, config->known_count);
2776
2777                         if (tk->num == TK_in) {
2778                                 tos->indents += 1;
2779                                 tos->since_newline = 0;
2780                                 tos->since_indent = 0;
2781                                 if (!states[tos->state].starts_line)
2782                                         tos->newline_permitted = 0;
2783                                 free(tk);
2784                                 tk = NULL;
2785                                 parser_trace_action(trace, "Record");
2786                                 continue;
2787                         }
2788                         if (tk->num == TK_out) {
2789                                 if (states[tos->state].reduce_size >= 0 &&
2790                                     states[tos->state].reduce_size <= tos->since_indent)
2791                                         goto force_reduce;
2792                                 if (states[tos->state].min_prefix >= tos->since_indent) {
2793                                         // OK to cancel
2794                                         struct frame *in = tos - tos->since_indent;
2795                                         in->indents -= 1;
2796                                         if (in->indents == 0) {
2797                                                 /* Reassess since_indent and newline_permitted */
2798                                                 if (in > p.stack) {
2799                                                         in->since_indent = in[-1].since_indent + 1;
2800                                                         in->newline_permitted = in[-1].newline_permitted;
2801                                                 } else {
2802                                                         in->since_indent = 0;
2803                                                         in->newline_permitted = 0;
2804                                                 }
2805                                                 if (states[in->state].starts_line)
2806                                                         in->newline_permitted = 1;
2807                                                 while (in < tos) {
2808                                                         in += 1;
2809                                                         in->since_indent = in[-1].since_indent + 1;
2810                                                         if (states[in->state].starts_line)
2811                                                                 in->newline_permitted = 1;
2812                                                         else
2813                                                                 in->newline_permitted = in[-1].newline_permitted;
2814                                                 }
2815                                         }
2816                                         free(tk);
2817                                         tk = NULL;
2818                                         parser_trace_action(trace, "Cancel");
2819                                         continue;
2820                                 }
2821                                 // fall through to error handling as both SHIFT and REDUCE
2822                                 // will fail.
2823                         }
2824                         if (tk->num == TK_newline) {
2825                                 if (!tos->newline_permitted) {
2826                                         free(tk);
2827                                         tk = NULL;
2828                                         parser_trace_action(trace, "Discard");
2829                                         continue;
2830                                 }
2831                                 if (tos->since_newline > 1 &&
2832                                     states[tos->state].reduce_size >= 0 &&
2833                                     states[tos->state].reduce_size <= tos->since_newline)
2834                                         goto force_reduce;
2835                         }
2836                         if (shift(&p, tk->num, 0, tk->num == TK_newline, tk, states)) {
2837                                 tk = NULL;
2838                                 parser_trace_action(trace, "Shift");
2839                                 continue;
2840                         }
2841                 force_reduce:
2842                         if (states[tos->state].reduce_prod >= 0) {
2843                                 void **body;
2844                                 void *res;
2845                                 const struct state *nextstate = &states[tos->state];
2846                                 int prod = nextstate->reduce_prod;
2847                                 int size = nextstate->reduce_size;
2848                                 int bufsize;
2849                                 static char buf[16*1024];
2850                                 short indents, start_of_line;
2851
2852                                 body = p.asn_stack + (p.tos - size);
2853
2854                                 bufsize = do_reduce(prod, body, config, buf);
2855
2856                                 indents = pop(&p, size, &start_of_line,
2857                                               do_free);
2858                                 res = memdup(buf, bufsize);
2859                                 memset(buf, 0, bufsize);
2860                                 if (!shift(&p, nextstate->reduce_sym,
2861                                            indents, start_of_line,
2862                                            res, states)) {
2863                                         if (prod != 0) abort();
2864                                         accepted = 1;
2865                                         ret = res;
2866                                 }
2867                                 parser_trace_action(trace, "Reduce");
2868                                 continue;
2869                         }
2870                         /* Error. We walk up the stack until we
2871                          * find a state which will accept TK_error.
2872                          * We then shift in TK_error and see what state
2873                          * that takes us too.
2874                          * Then we discard input tokens until
2875                          * we find one that is acceptable.
2876                          */
2877                         parser_trace_action(trace, "ERROR");
2878                         short indents = 0, start_of_line;
2879
2880                         err_tk = tok_copy(*tk);
2881                         while (p.tos > 0 &&
2882                                shift(&p, TK_error, 0, 0,
2883                                      err_tk, states) == 0)
2884                                 // discard this state
2885                                 indents += pop(&p, 1, &start_of_line, do_free);
2886                         if (p.tos == 0) {
2887                                 free(err_tk);
2888                                 // no state accepted TK_error
2889                                 break;
2890                         }
2891                         tos = &p.stack[p.tos-1];
2892                         while (!in_lookahead(tk, states, tos->state) &&
2893                                tk->num != TK_eof) {
2894                                 free(tk);
2895                                 tk = tok_copy(token_next(tokens));
2896                                 if (tk->num == TK_in)
2897                                         indents += 1;
2898                                 if (tk->num == TK_out) {
2899                                         if (indents == 0)
2900                                                 break;
2901                                         indents -= 1;
2902                                         // FIXME update since_indent here
2903                                 }
2904                         }
2905                         tos->indents += indents;
2906                 }
2907                 free(tk);
2908                 pop(&p, p.tos, NULL, do_free);
2909                 free(p.asn_stack);
2910                 free(p.stack);
2911                 return ret;
2912         }
2913
2914 ###### exported functions
2915         void *parser_run(struct token_state *tokens,
2916                          const struct state states[],
2917                          int (*do_reduce)(int, void**, struct token_config*, void*),
2918                          void (*do_free)(short, void*),
2919                          FILE *trace, const char *non_term[],
2920                          struct token_config *config);
2921
2922 ### Tracing
2923
2924 Being able to visualize the parser in action can be invaluable when
2925 debugging the parser code, or trying to understand how the parse of a
2926 particular grammar progresses.  The stack contains all the important
2927 state, so just printing out the stack every time around the parse loop
2928 can make it possible to see exactly what is happening.
2929
2930 This doesn't explicitly show each SHIFT and REDUCE action.  However they
2931 are easily deduced from the change between consecutive lines, and the
2932 details of each state can be found by cross referencing the states list
2933 in the stack with the "report" that parsergen can generate.
2934
2935 For terminal symbols, we just dump the token.  For non-terminals we
2936 print the name of the symbol.  The look ahead token is reported at the
2937 end inside square brackets.
2938
2939 ###### parser functions
2940
2941         static char *reserved_words[] = {
2942                 [TK_error]        = "ERROR",
2943                 [TK_in]           = "IN",
2944                 [TK_out]          = "OUT",
2945                 [TK_newline]      = "NEWLINE",
2946                 [TK_eof]          = "$eof",
2947         };
2948         static void parser_trace_state(FILE *trace, struct frame *f, const struct state states[])
2949         {
2950                 fprintf(trace, "(%d", f->state);
2951                 if (states[f->state].starts_line)
2952                         fprintf(trace, "s");
2953                 if (f->newline_permitted)
2954                         fprintf(trace, "n%d", f->since_newline);
2955                 fprintf(trace, ") ");
2956         }
2957
2958         void parser_trace(FILE *trace, struct parser *p,
2959                           struct token *tk, const struct state states[],
2960                           const char *non_term[], int knowns)
2961         {
2962                 int i;
2963                 if (!trace)
2964                         return;
2965                 for (i = 0; i < p->tos; i++) {
2966                         struct frame *f = &p->stack[i];
2967                         if (i) {
2968                                 int sym = f->sym;
2969                                 if (sym < TK_reserved &&
2970                                     reserved_words[sym] != NULL)
2971                                         fputs(reserved_words[sym], trace);
2972                                 else if (sym < TK_reserved + knowns) {
2973                                         struct token *t = p->asn_stack[i];
2974                                         text_dump(trace, t->txt, 20);
2975                                 } else
2976                                         fputs(non_term[sym - TK_reserved - knowns],
2977                                               trace);
2978                                 if (f->indents)
2979                                         fprintf(trace, ".%d", f->indents);
2980                                 if (f->since_newline == 0)
2981                                         fputs("/", trace);
2982                                 fputs(" ", trace);
2983                         }
2984                         parser_trace_state(trace, f, states);
2985                 }
2986                 fprintf(trace, "[");
2987                 if (tk->num < TK_reserved &&
2988                     reserved_words[tk->num] != NULL)
2989                         fputs(reserved_words[tk->num], trace);
2990                 else
2991                         text_dump(trace, tk->txt, 20);
2992                 fputs("]", trace);
2993         }
2994
2995         void parser_trace_action(FILE *trace, char *action)
2996         {
2997                 if (trace)
2998                         fprintf(trace, " - %s\n", action);
2999         }
3000
3001 # A Worked Example
3002
3003 The obvious example for a parser is a calculator.
3004
3005 As `scanner` provides number parsing function using `libgmp` is it not much
3006 work to perform arbitrary rational number calculations.
3007
3008 This calculator takes one expression, or an equality test, per line.  The
3009 results are printed and if any equality test fails, the program exits with
3010 an error.
3011
3012 ###### File: parsergen.mk
3013         calc.c calc.h : parsergen parsergen.mdc
3014                 ./parsergen --tag calc -o calc parsergen.mdc
3015         calc : calc.o libparser.o libscanner.o libmdcode.o libnumber.o
3016                 $(CC) $(CFLAGS) -o calc calc.o libparser.o libscanner.o libmdcode.o libnumber.o -licuuc -lgmp
3017         calctest : calc
3018                 ./calc parsergen.mdc
3019         demos :: calctest
3020
3021 # calc: header
3022
3023         #include "number.h"
3024         // what do we use for a demo-grammar?  A calculator of course.
3025         struct number {
3026                 mpq_t val;
3027                 char tail[2];
3028                 int err;
3029         };
3030
3031 # calc: code
3032
3033         #include <stdlib.h>
3034         #include <unistd.h>
3035         #include <fcntl.h>
3036         #include <sys/mman.h>
3037         #include <stdio.h>
3038         #include <malloc.h>
3039         #include <gmp.h>
3040         #include <string.h>
3041         #include "mdcode.h"
3042         #include "scanner.h"
3043         #include "number.h"
3044         #include "parser.h"
3045
3046         #include "calc.h"
3047
3048         static void free_number(struct number *n)
3049         {
3050                 mpq_clear(n->val);
3051                 free(n);
3052         }
3053
3054         static int text_is(struct text t, char *s)
3055         {
3056                 return (strlen(s) == t.len &&
3057                         strncmp(s, t.txt, t.len) == 0);
3058         }
3059
3060         int main(int argc, char *argv[])
3061         {
3062                 int fd = open(argv[1], O_RDONLY);
3063                 int len = lseek(fd, 0, 2);
3064                 char *file = mmap(NULL, len, PROT_READ, MAP_SHARED, fd, 0);
3065                 struct section *table = code_extract(file, file+len, NULL);
3066                 struct section *s;
3067                 struct token_config config = {
3068                         .ignored = (1 << TK_line_comment)
3069                                  | (1 << TK_block_comment)
3070                                  | (1 << TK_in)
3071                                  | (1 << TK_out),
3072                         .number_chars = ".,_+-",
3073                         .word_start = "",
3074                         .word_cont = "",
3075                 };
3076                 for (s = table; s; s = s->next)
3077                         if (text_is(s->section, "example: input"))
3078                                 parse_calc(s->code, &config, argc > 2 ? stderr : NULL);
3079                 while (table) {
3080                         struct section *t = table->next;
3081                         code_free(table->code);
3082                         free(table);
3083                         table = t;
3084                 }
3085                 exit(0);
3086         }
3087
3088 # calc: grammar
3089
3090         $LEFT * /
3091         $LEFT + -
3092
3093         Session -> Session Line
3094                 | Line
3095
3096         Line -> Expression NEWLINE ${ gmp_printf("Answer = %Qd\n", $1.val);
3097                                         { mpf_t fl; mpf_init2(fl, 20); mpf_set_q(fl, $1.val);
3098                                         gmp_printf("  or as a decimal: %Fg\n", fl);
3099                                         mpf_clear(fl);
3100                                         }
3101                                      }$
3102                 | Expression = Expression NEWLINE ${
3103                         if (mpq_equal($1.val, $3.val))
3104                                 gmp_printf("Both equal %Qd\n", $1.val);
3105                         else {
3106                                 gmp_printf("NOT EQUAL: %Qd\n      != : %Qd\n",
3107                                         $1.val, $3.val);
3108                                 exit(1);
3109                         }
3110                 }$
3111                 | NEWLINE ${ printf("Blank line\n"); }$
3112                 | ERROR NEWLINE ${ printf("Skipped a bad line\n"); }$
3113
3114         $number
3115         Expression -> Expression + Expression ${ mpq_init($0.val); mpq_add($0.val, $1.val, $3.val); }$
3116                 | Expression - Expression ${ mpq_init($0.val); mpq_sub($0.val, $1.val, $3.val); }$
3117                 | Expression * Expression ${ mpq_init($0.val); mpq_mul($0.val, $1.val, $3.val); }$
3118                 | Expression / Expression ${ mpq_init($0.val); mpq_div($0.val, $1.val, $3.val); }$
3119                 | NUMBER ${ if (number_parse($0.val, $0.tail, $1.txt) == 0) mpq_init($0.val); }$
3120                 | ( Expression ) ${ mpq_init($0.val); mpq_set($0.val, $2.val); }$
3121
3122 # example: input
3123
3124         355/113
3125         3.1415926535 - 355/113
3126         2 + 4 * 5
3127         1 + 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9
3128         10 * 9 / 2
3129         1 * 1000 + 2 * 100 + 3 * 10 + 4 * 1
3130
3131         error