]> ocean-lang.org Git - ocean/blob - csrc/parsergen.mdc
parsergen - don't completely hide non-critical conflicts.
[ocean] / csrc / parsergen.mdc
1 # LR(1) Parser Generator #
2
3 This parser generator takes a grammar description combined with code
4 fragments, analyses it, and can report details about the analysis and
5 write out C code files which can be compiled to make a parser.
6
7 There are several distinct sections.
8
9 1. `grammar_read` will read a grammar from a literate-code file and
10    store the productions, symbols, and code fragments.
11 2. `grammar_analyse` will take that grammar and build LR parsing
12    states and look-ahead tables.
13 3. `grammar_report` will present the details of the analysis
14    in a readable format and will report any conflicts.
15 4. `parser_generate` will write out C code files with various
16    tables and with the code fragments arranged in useful places.
17 5. `parser_run` is a library function intended to be linked together
18    with the generated parser tables to complete the implementation of
19    a parser.
20 6. Finally `calc` is a test grammar for a simple calculator.  The
21    `parsergen` program built from the C code in this file can extract
22    that grammar directly from this file and process it.
23
24 ###### File: parsergen.c
25         #include <unistd.h>
26         #include <stdlib.h>
27         #include <stdio.h>
28         ## includes
29         ## forward declarations
30         ## declarations
31         ## functions
32         ## grammar_read
33         ## grammar_analyse
34         ## grammar_report
35         ## parser_generate
36         ## main
37 ###### File: parser.h
38         ## exported types
39         ## exported functions
40 ###### File: libparser.c
41         #include <unistd.h>
42         #include <stdlib.h>
43         #include <stdio.h>
44         ## parser includes
45         ## parser functions
46         ## parser_run
47 ###### File: parsergen.mk
48         CFLAGS += -Wall -g
49         all :: parsergen calc
50         parsergen.c parsergen.mk libparser.c parser.h : parsergen.mdc
51                 ./md2c parsergen.mdc
52
53 ## Reading the grammar
54
55 The grammar must be stored in a markdown literate code file as parsed
56 by "[mdcode][]".  It must have three top level (i.e. unreferenced)
57 sections: `header`, `code`, and `grammar`.  The first two will be
58 literally copied into the generated `.c` and `.h`. files.  The last
59 contains the grammar.  This is tokenised with "[scanner][]".
60
61 If the `--tag` option is given, then any top level header that doesn't
62 start with the tag is ignored, and the tag is striped from the rest.  So
63 `--tag Foo`
64 means that the three needed sections must be `Foo: header`, `Foo: code`,
65 and `Foo: grammar`.  The tag `calc` is used to extract the same calculator
66 from this file.
67
68 [mdcode]: mdcode.html
69 [scanner]: scanner.html
70
71 ###### includes
72         #include "mdcode.h"
73         #include "scanner.h"
74
75 ###### parser includes
76         #include "mdcode.h"
77         #include "scanner.h"
78
79 The grammar contains production sets, precedence/associativity
80 declarations, and data type declarations.  These are all parsed with
81 _ad hoc_ parsing as we don't have a parser generator yet.
82
83 The precedence and associativity can be set for each production, but
84 can be inherited from symbols.  The data type (either structure or a
85 reference to a structure) is potentially defined for each non-terminal
86 and describes what C structure is used to store information about each
87 symbol.
88
89 ###### declarations
90         enum assoc {Left, Right, Non};
91         char *assoc_names[] = {"Left","Right","Non"};
92
93         struct symbol {
94                 struct text struct_name;
95                 int isref;
96                 enum assoc assoc;
97                 unsigned short precedence;
98                 ## symbol fields
99         };
100         struct production {
101                 unsigned short precedence;
102                 enum assoc assoc;
103                 ## production fields
104         };
105         struct grammar {
106                 ## grammar fields
107         };
108
109 The strings reported by `mdcode` and `scanner` are `struct text` which have
110 length rather than being null terminated.  To help with printing and
111 comparing we define `text_is` and `prtxt`, which should possibly go in
112 `mdcode`.  `scanner` does provide `text_dump` which is useful for strings
113 which might contain control characters.
114
115 `strip_tag` is a bit like `strncmp`, but adds a test for a colon,
116 because that is what we need to detect tags.
117
118 ###### functions
119         static int text_is(struct text t, char *s)
120         {
121                 return (strlen(s) == t.len &&
122                         strncmp(s, t.txt, t.len) == 0);
123         }
124         static void prtxt(struct text t)
125         {
126                 printf("%.*s", t.len, t.txt);
127         }
128
129         static int strip_tag(struct text *t, char *tag)
130         {
131                 int skip = strlen(tag) + 1;
132                 if (skip >= t->len ||
133                     strncmp(t->txt, tag, skip-1) != 0 ||
134                     t->txt[skip-1] != ':')
135                         return 0;
136                 while (skip < t->len && t->txt[skip] == ' ')
137                         skip++;
138                 t->len -= skip;
139                 t->txt += skip;
140                 return 1;
141         }
142
143 ### Symbols
144
145 Productions are comprised primarily of symbols - terminal and
146 non-terminal.  We do not make a syntactic distinction between the two,
147 though non-terminals must be identifiers.  Non-terminal symbols are
148 those which appear in the head of a production, terminal symbols are
149 those which don't.  There are also "virtual" symbols used for precedence
150 marking discussed later, and sometimes we won't know what type a symbol
151 is yet.
152
153 ###### forward declarations
154         enum symtype { Unknown, Virtual, Terminal, Nonterminal };
155         char *symtypes = "UVTN";
156 ###### symbol fields
157         enum symtype type;
158
159 Symbols can be either `TK_ident` or `TK_mark`.  They are saved in a
160 table of known symbols and the resulting parser will report them as
161 `TK_reserved + N`.  A small set of identifiers are reserved for the
162 different token types that `scanner` can report.
163
164 ###### declarations
165         static char *reserved_words[] = {
166                 [TK_error]        = "ERROR",
167                 [TK_number]       = "NUMBER",
168                 [TK_ident]        = "IDENTIFIER",
169                 [TK_mark]         = "MARK",
170                 [TK_string]       = "STRING",
171                 [TK_multi_string] = "MULTI_STRING",
172                 [TK_in]           = "IN",
173                 [TK_out]          = "OUT",
174                 [TK_newline]      = "NEWLINE",
175                 [TK_eof]          = "$eof",
176         };
177 ###### symbol fields
178         short num;
179
180 Note that `TK_eof` and the two `TK_*_comment` tokens cannot be
181 recognised.  The former is automatically expected at the end of the text
182 being parsed. The latter are always ignored by the parser.
183
184 All of these symbols are stored in a simple symbol table.  We use the
185 `struct text` from `mdcode` to store the name and link them together
186 into a sorted list using an insertion sort.
187
188 We don't have separate `find` and `insert` functions as any symbol we
189 find needs to be remembered.  We simply expect `find` to always return a
190 symbol, but its type might be `Unknown`.
191
192 ###### includes
193         #include <string.h>
194
195 ###### symbol fields
196         struct text name;
197         struct symbol *next;
198
199 ###### grammar fields
200         struct symbol *syms;
201         int num_syms;
202
203 ###### functions
204         static struct symbol *sym_find(struct grammar *g, struct text s)
205         {
206                 struct symbol **l = &g->syms;
207                 struct symbol *n;
208                 int cmp = 1;
209
210                 while (*l &&
211                         (cmp = text_cmp((*l)->name, s)) < 0)
212                                 l = & (*l)->next;
213                 if (cmp == 0)
214                         return *l;
215                 n = calloc(1, sizeof(*n));
216                 n->name = s;
217                 n->type = Unknown;
218                 n->next = *l;
219                 n->num = -1;
220                 *l = n;
221                 return n;
222         }
223
224         static void symbols_init(struct grammar *g)
225         {
226                 int entries = sizeof(reserved_words)/sizeof(reserved_words[0]);
227                 int i;
228                 for (i = 0; i < entries; i++) {
229                         struct text t;
230                         struct symbol *s;
231                         t.txt = reserved_words[i];
232                         if (!t.txt)
233                                 continue;
234                         t.len = strlen(t.txt);
235                         s = sym_find(g, t);
236                         s->type = Terminal;
237                         s->num = i;
238                 }
239         }
240
241 ### Data types and precedence.
242
243 Data type specification and precedence specification are both
244 introduced by a dollar sign at the start of the line.  If the next
245 word is `LEFT`, `RIGHT` or `NON`, then the line specifies a
246 precedence, otherwise it specifies a data type.
247
248 The data type name is simply stored and applied to the head of all
249 subsequent productions.  It must be the name of a structure optionally
250 preceded by an asterisk which means a reference or "pointer".  So
251 `$expression` maps to `struct expression` and `$*statement` maps to
252 `struct statement *`.
253
254 Any productions given before the first data type declaration will have
255 no data type associated with them and can carry no information.  In
256 order to allow other non-terminals to have no type, the data type
257 `$void` can be given.  This does *not* mean that `struct void` will be
258 used, but rather than no type will be associated with future
259 non-terminals.
260
261 The precedence line must contain a list of symbols - typically
262 terminal symbols, but not necessarily.  It can only contain symbols
263 that have not been seen yet, so precedence declaration must precede
264 the productions that they affect.
265
266 A precedence line may also contain a "virtual" symbol which is an
267 identifier preceded by `$$`.  Virtual terminals carry precedence
268 information but are not included in the grammar.  A production can
269 declare that it inherits the precedence of a given virtual symbol.
270
271 This use for `$$` precludes it from being used as a symbol in the
272 described language.  Two other symbols: `${` and `}$` are also
273 unavailable.
274
275 Each new precedence line introduces a new precedence level and
276 declares how it associates.  This level is stored in each symbol
277 listed and may be inherited by any production which uses the symbol.  A
278 production inherits from the last symbol which has a precedence.
279
280 ###### grammar fields
281         struct text current_type;
282         int type_isref;
283         int prec_levels;
284
285 ###### declarations
286         enum symbols { TK_virtual = TK_reserved, TK_open, TK_close };
287         static const char *known[] = { "$$", "${", "}$" };
288
289 ###### functions
290         static char *dollar_line(struct token_state *ts, struct grammar *g, int isref)
291         {
292                 struct token t = token_next(ts);
293                 char *err;
294                 enum assoc assoc;
295                 int found;
296
297                 if (t.num != TK_ident) {
298                         err = "type or assoc expected after '$'";
299                         goto abort;
300                 }
301                 if (text_is(t.txt, "LEFT"))
302                         assoc = Left;
303                 else if (text_is(t.txt, "RIGHT"))
304                         assoc = Right;
305                 else if (text_is(t.txt, "NON"))
306                         assoc = Non;
307                 else {
308                         g->current_type = t.txt;
309                         g->type_isref = isref;
310                         if (text_is(t.txt, "void"))
311                                 g->current_type.txt = NULL;
312                         t = token_next(ts);
313                         if (t.num != TK_newline) {
314                                 err = "Extra tokens after type name";
315                                 goto abort;
316                         }
317                         return NULL;
318                 }
319
320                 if (isref) {
321                         err = "$* cannot be followed by a precedence";
322                         goto abort;
323                 }
324
325                 // This is a precedence line, need some symbols.
326                 found = 0;
327                 g->prec_levels += 1;
328                 t = token_next(ts);
329                 while (t.num != TK_newline) {
330                         enum symtype type = Terminal;
331                         struct symbol *s;
332                         if (t.num == TK_virtual) {
333                                 type = Virtual;
334                                 t = token_next(ts);
335                                 if (t.num != TK_ident) {
336                                         err = "$$ must be followed by a word";
337                                         goto abort;
338                                 }
339                         } else if (t.num != TK_ident &&
340                                    t.num != TK_mark) {
341                                 err = "Illegal token in precedence line";
342                                 goto abort;
343                         }
344                         s = sym_find(g, t.txt);
345                         if (s->type != Unknown) {
346                                 err = "Symbols in precedence line must not already be known.";
347                                 goto abort;
348                         }
349                         s->type = type;
350                         s->precedence = g->prec_levels;
351                         s->assoc = assoc;
352                         found += 1;
353                         t = token_next(ts);
354                 }
355                 if (found == 0)
356                         err = "No symbols given on precedence line";
357                         goto abort;
358                 return NULL;
359         abort:
360                 while (t.num != TK_newline && t.num != TK_eof)
361                         t = token_next(ts);
362                 return err;
363         }
364
365 ### Productions
366
367 A production either starts with an identifier which is the head
368 non-terminal, or a vertical bar (`|`) in which case this production
369 uses the same head as the previous one.  The identifier must be
370 followed by a `->` mark.  All productions for a given non-terminal must
371 be grouped together with the `nonterminal ->` given only once.
372
373 After this a (possibly empty) sequence of identifiers and marks form
374 the body of the production.  A virtual symbol may be given after the
375 body by preceding it with `$$`.  If a virtual symbol is given, the
376 precedence of the production is that for the virtual symbol.  If none
377 is given, the precedence is inherited from the last symbol in the
378 production which has a precedence specified.
379
380 After the optional precedence may come the `${` mark.  This indicates
381 the start of a code fragment.  If present, this must be on the same
382 line as the start of the production.
383
384 All of the text from the `${` through to the matching `}$` is
385 collected and forms the code-fragment for the production.  It must all
386 be in one `code_node` of the literate code.  The `}$` must be
387 at the end of a line.
388
389 Text in the code fragment will undergo substitutions where `$N` or
390 `$<N`,for some numeric `N`, will be replaced with a variable holding
391 the parse information for the particular symbol in the production.
392 `$0` is the head of the production, `$1` is the first symbol of the
393 body, etc.  The type of `$N` for a terminal symbol is `struct token`.
394 For a non-terminal, it is whatever has been declared for that symbol.
395 The `<` may be included for symbols declared as storing a reference
396 (not a structure) and means that the reference is being moved out, so
397 it will not automatically be freed.
398
399 While building productions we will need to add to an array which needs to
400 grow dynamically.
401
402 ###### functions
403         static void array_add(void *varray, int *cnt, void *new)
404         {
405                 void ***array = varray;
406                 int current = 0;
407                 const int step = 8;
408                 current = ((*cnt-1) | (step-1))+1;
409                 if (*cnt == current) {
410                         /* must grow */
411                         current += step;
412                         *array = realloc(*array, current * sizeof(void*));
413                 }
414                 (*array)[*cnt] = new;
415                 (*cnt) += 1;
416         }
417
418 Collecting the code fragment simply involves reading tokens until we
419 hit the end token `}$`, and noting the character position of the start and
420 the end.
421
422 ###### functions
423         static struct text collect_code(struct token_state *state,
424                                         struct token start)
425         {
426                 struct text code;
427                 struct token t;
428                 code.txt = start.txt.txt + start.txt.len;
429                 do
430                         t = token_next(state);
431                 while (t.node == start.node &&
432                        t.num != TK_close && t.num != TK_error &&
433                        t.num != TK_eof);
434                 if (t.num == TK_close && t.node == start.node)
435                         code.len = t.txt.txt - code.txt;
436                 else
437                         code.txt = NULL;
438                 return code;
439         }
440
441 Now we have all the bits we need to parse a full production.
442
443 ###### includes
444         #include <memory.h>
445
446 ###### grammar fields
447         struct production **productions;
448         int production_count;
449
450 ###### production fields
451         struct symbol  *head;
452         struct symbol **body;
453         int             body_size;
454         struct text     code;
455         int             code_line;
456
457 ###### symbol fields
458         int first_production;
459
460 ###### functions
461         static char *parse_production(struct grammar *g,
462                                       struct symbol *head,
463                                       struct token_state *state)
464         {
465                 /* Head has already been parsed. */
466                 struct token tk;
467                 char *err;
468                 struct production p, *pp;
469
470                 memset(&p, 0, sizeof(p));
471                 p.head = head;
472                 tk = token_next(state);
473                 while (tk.num == TK_ident || tk.num == TK_mark) {
474                         struct symbol *bs = sym_find(g, tk.txt);
475                         if (bs->type == Unknown)
476                                 bs->type = Terminal;
477                         if (bs->type == Virtual) {
478                                 err = "Virtual symbol not permitted in production";
479                                 goto abort;
480                         }
481                         if (bs->precedence) {
482                                 p.precedence = bs->precedence;
483                                 p.assoc = bs->assoc;
484                         }
485                         array_add(&p.body, &p.body_size, bs);
486                         tk = token_next(state);
487                 }
488                 if (tk.num == TK_virtual) {
489                         struct symbol *vs;
490                         tk = token_next(state);
491                         if (tk.num != TK_ident) {
492                                 err = "word required after $$";
493                                 goto abort;
494                         }
495                         vs = sym_find(g, tk.txt);
496                         if (vs->type != Virtual) {
497                                 err = "symbol after $$ must be virtual";
498                                 goto abort;
499                         }
500                         p.precedence = vs->precedence;
501                         p.assoc = vs->assoc;
502                         tk = token_next(state);
503                 }
504                 if (tk.num == TK_open) {
505                         p.code_line = tk.line;
506                         p.code = collect_code(state, tk);
507                         if (p.code.txt == NULL) {
508                                 err = "code fragment not closed properly";
509                                 goto abort;
510                         }
511                         tk = token_next(state);
512                 }
513                 if (tk.num != TK_newline && tk.num != TK_eof) {
514                         err = "stray tokens at end of line";
515                         goto abort;
516                 }
517                 pp = malloc(sizeof(*pp));
518                 *pp = p;
519                 array_add(&g->productions, &g->production_count, pp);
520                 return NULL;
521         abort:
522                 while (tk.num != TK_newline && tk.num != TK_eof)
523                         tk = token_next(state);
524                 return err;
525         }
526
527 With the ability to parse production and dollar-lines, we have nearly all
528 that we need to parse a grammar from a `code_node`.
529
530 The head of the first production will effectively be the `start` symbol of
531 the grammar.  However it won't _actually_ be so.  Processing the grammar is
532 greatly simplified if the real start symbol only has a single production,
533 and expects `$eof` as the final terminal.  So when we find the first
534 explicit production we insert an extra production as production zero which
535 looks like
536
537 ###### Example: production 0
538         $start -> START $eof
539
540 where `START` is the first non-terminal given.
541
542 ###### create production zero
543         struct production *p = calloc(1,sizeof(*p));
544         struct text start = {"$start",6};
545         struct text eof = {"$eof",4};
546         struct text code = {"$0 = $<1;", 9};
547         p->head = sym_find(g, start);
548         p->head->type = Nonterminal;
549         p->head->struct_name = g->current_type;
550         p->head->isref = g->type_isref;
551         if (g->current_type.txt)
552                 p->code = code;
553         array_add(&p->body, &p->body_size, head);
554         array_add(&p->body, &p->body_size, sym_find(g, eof));
555         p->head->first_production = g->production_count;
556         array_add(&g->productions, &g->production_count, p);
557
558 Now we are ready to read in the grammar.  We ignore comments
559 and strings so that the marks which introduce them can be
560 used as terminals in the grammar.  We don't ignore numbers
561 even though we don't allow them as that causes the scanner
562 to produce errors that the parser is better positioned to handle.
563
564 ###### grammar_read
565         static struct grammar *grammar_read(struct code_node *code)
566         {
567                 struct token_config conf = {
568                         .word_start = "",
569                         .word_cont = "",
570                         .words_marks = known,
571                         .known_count = sizeof(known)/sizeof(known[0]),
572                         .number_chars = "",
573                         .ignored = (1 << TK_line_comment)
574                                  | (1 << TK_block_comment)
575                                  | (0 << TK_number)
576                                  | (1 << TK_string)
577                                  | (1 << TK_multi_string)
578                                  | (1 << TK_in)
579                                  | (1 << TK_out),
580                 };
581
582                 struct token_state *state = token_open(code, &conf);
583                 struct token tk;
584                 struct symbol *head = NULL;
585                 struct grammar *g;
586                 char *err = NULL;
587
588                 g = calloc(1, sizeof(*g));
589                 symbols_init(g);
590
591                 for (tk = token_next(state); tk.num != TK_eof;
592                      tk = token_next(state)) {
593                         if (tk.num == TK_newline)
594                                 continue;
595                         if (tk.num == TK_ident) {
596                                 // new non-terminal
597                                 head = sym_find(g, tk.txt);
598                                 if (head->type == Nonterminal)
599                                         err = "This non-terminal has already be used.";
600                                 else if (head->type == Virtual)
601                                         err = "Virtual symbol not permitted in head of production";
602                                 else {
603                                         head->type = Nonterminal;
604                                         head->struct_name = g->current_type;
605                                         head->isref = g->type_isref;
606                                         if (g->production_count == 0) {
607                                                 ## create production zero
608                                         }
609                                         head->first_production = g->production_count;
610                                         tk = token_next(state);
611                                         if (tk.num == TK_mark &&
612                                             text_is(tk.txt, "->"))
613                                                 err = parse_production(g, head, state);
614                                         else
615                                                 err = "'->' missing in production";
616                                 }
617                         } else if (tk.num == TK_mark
618                                    && text_is(tk.txt, "|")) {
619                                 // another production for same non-term
620                                 if (head)
621                                         err = parse_production(g, head, state);
622                                 else
623                                         err = "First production must have a head";
624                         } else if (tk.num == TK_mark
625                                    && text_is(tk.txt, "$")) {
626                                 err = dollar_line(state, g, 0);
627                         } else if (tk.num == TK_mark
628                                    && text_is(tk.txt, "$*")) {
629                                 err = dollar_line(state, g, 1);
630                         } else {
631                                 err = "Unrecognised token at start of line.";
632                         }
633                         if (err)
634                                 goto abort;
635                 }
636                 token_close(state);
637                 return g;
638         abort:
639                 fprintf(stderr, "Error at line %d: %s\n",
640                         tk.line, err);
641                 token_close(state);
642                 free(g);
643                 return NULL;
644         }
645
646 ## Analysing the grammar
647
648 The central task in analysing the grammar is to determine a set of
649 states to drive the parsing process.  This will require finding
650 various sets of symbols and of "items".  Some of these sets will need
651 to attach information to each element in the set, so they are more
652 like maps.
653
654 Each "item" may have a 'look-ahead' or `LA` set associated with
655 it.  Many of these will be the same as each other.  To avoid memory
656 wastage, and to simplify some comparisons of sets, these sets will be
657 stored in a list of unique sets, each assigned a number.
658
659 Once we have the data structures in hand to manage these sets and
660 lists, we can start setting the 'nullable' flag, build the 'FIRST'
661 sets, and then create the item sets which define the various states.
662
663 ### Symbol sets.
664
665 Though we don't only store symbols in these sets, they are the main
666 things we store, so they are called symbol sets or "symsets".
667
668 A symset has a size, an array of shorts, and an optional array of data
669 values, which are also shorts.  If the array of data is not present,
670 we store an impossible pointer, as `NULL` is used to indicate that no
671 memory has been allocated yet;
672
673 ###### declarations
674         struct symset {
675                 short cnt;
676                 unsigned short *syms, *data;
677         };
678         #define NO_DATA ((unsigned short *)1)
679         const struct symset INIT_SYMSET =  { 0, NULL, NO_DATA };
680         const struct symset INIT_DATASET = { 0, NULL, NULL };
681
682 The arrays of shorts are allocated in blocks of 8 and are kept sorted
683 by using an insertion sort.  We don't explicitly record the amount of
684 allocated space as it can be derived directly from the current `cnt` using
685 `((cnt - 1) | 7) + 1`.
686
687 ###### functions
688         static void symset_add(struct symset *s, unsigned short key, unsigned short val)
689         {
690                 int i;
691                 int current = ((s->cnt-1) | 7) + 1;
692                 if (current == s->cnt) {
693                         current += 8;
694                         s->syms = realloc(s->syms, sizeof(*s->syms) * current);
695                         if (s->data != NO_DATA)
696                                 s->data = realloc(s->data, sizeof(*s->data) * current);
697                 }
698                 i = s->cnt;
699                 while (i > 0 && s->syms[i-1] > key) {
700                         s->syms[i] = s->syms[i-1];
701                         if (s->data != NO_DATA)
702                                 s->data[i] = s->data[i-1];
703                         i--;
704                 }
705                 s->syms[i] = key;
706                 if (s->data != NO_DATA)
707                         s->data[i] = val;
708                 s->cnt += 1;
709         }
710
711 Finding a symbol (or item) in a `symset` uses a simple binary search.
712 We return the index where the value was found (so data can be accessed),
713 or `-1` to indicate failure.
714
715         static int symset_find(struct symset *ss, unsigned short key)
716         {
717                 int lo = 0;
718                 int hi = ss->cnt;
719
720                 if (hi == 0)
721                         return -1;
722                 while (lo + 1 < hi) {
723                         int mid = (lo + hi) / 2;
724                         if (ss->syms[mid] <= key)
725                                 lo = mid;
726                         else
727                                 hi = mid;
728                 }
729                 if (ss->syms[lo] == key)
730                         return lo;
731                 return -1;
732         }
733
734 We will often want to form the union of two symsets.  When we do, we
735 will often want to know if anything changed (as that might mean there
736 is more work to do).  So `symset_union` reports whether anything was
737 added to the first set.  We use a slow quadratic approach as these
738 sets don't really get very big.  If profiles shows this to be a problem it
739 can be optimised later.
740
741         static int symset_union(struct symset *a, struct symset *b)
742         {
743                 int i;
744                 int added = 0;
745                 for (i = 0; i < b->cnt; i++)
746                         if (symset_find(a, b->syms[i]) < 0) {
747                                 unsigned short data = 0;
748                                 if (b->data != NO_DATA)
749                                         data = b->data[i];
750                                 symset_add(a, b->syms[i], data);
751                                 added++;
752                         }
753                 return added;
754         }
755
756 And of course we must be able to free a symset.
757
758         static void symset_free(struct symset ss)
759         {
760                 free(ss.syms);
761                 if (ss.data != NO_DATA)
762                         free(ss.data);
763         }
764
765 ### Symset Storage
766
767 Some symsets are simply stored somewhere appropriate in the `grammar`
768 data structure, others needs a bit of indirection.  This applies
769 particularly to "LA" sets.  These will be paired with "items" in an
770 "itemset".  As itemsets will be stored in a symset, the "LA" set needs to be
771 stored in the `data` field, so we need a mapping from a small (short)
772 number to an LA `symset`.
773
774 As mentioned earlier this involves creating a list of unique symsets.
775
776 For now, we just use a linear list sorted by insertion.  A skiplist
777 would be more efficient and may be added later.
778
779 ###### declarations
780
781         struct setlist {
782                 struct symset ss;
783                 int num;
784                 struct setlist *next;
785         };
786
787 ###### grammar fields
788         struct setlist *sets;
789         int nextset;
790
791 ###### functions
792
793         static int ss_cmp(struct symset a, struct symset b)
794         {
795                 int i;
796                 int diff = a.cnt - b.cnt;
797                 if (diff)
798                         return diff;
799                 for (i = 0; i < a.cnt; i++) {
800                         diff = (int)a.syms[i] - (int)b.syms[i];
801                         if (diff)
802                                 return diff;
803                 }
804                 return 0;
805         }
806
807         static int save_set(struct grammar *g, struct symset ss)
808         {
809                 struct setlist **sl = &g->sets;
810                 int cmp = 1;
811                 struct setlist *s;
812
813                 while (*sl && (cmp = ss_cmp((*sl)->ss, ss)) < 0)
814                         sl = & (*sl)->next;
815                 if (cmp == 0) {
816                         symset_free(ss);
817                         return (*sl)->num;
818                 }
819
820                 s = malloc(sizeof(*s));
821                 s->ss = ss;
822                 s->num = g->nextset;
823                 g->nextset += 1;
824                 s->next = *sl;
825                 *sl = s;
826                 return s->num;
827         }
828
829 Finding a set by number is currently performed by a simple linear search.
830 If this turns out to hurt performance, we can store the sets in a dynamic
831 array like the productions.
832
833         static struct symset set_find(struct grammar *g, int num)
834         {
835                 struct setlist *sl = g->sets;
836                 while (sl && sl->num != num)
837                         sl = sl->next;
838                 return sl->ss;
839         }
840
841 ### Setting `nullable`
842
843 We set `nullable` on the head symbol for any production for which all
844 the body symbols (if any) are nullable.  As this is a recursive
845 definition, any change in the `nullable` setting means that we need to
846 re-evaluate where it needs to be set.
847
848 We simply loop around performing the same calculations until no more
849 changes happen.
850
851 ###### symbol fields
852         int nullable;
853
854 ###### functions
855         static void set_nullable(struct grammar *g)
856         {
857                 int check_again = 1;
858                 while (check_again) {
859                         int p;
860                         check_again = 0;
861                         for (p = 0; p < g->production_count; p++) {
862                                 struct production *pr = g->productions[p];
863                                 int s;
864
865                                 if (pr->head->nullable)
866                                         continue;
867                                 for (s = 0; s < pr->body_size; s++)
868                                         if (! pr->body[s]->nullable)
869                                                 break;
870                                 if (s == pr->body_size) {
871                                         pr->head->nullable = 1;
872                                         check_again = 1;
873                                 }
874                         }
875                 }
876         }
877
878 ### Setting `line_like`
879
880 In order to be able to ignore newline tokens when not relevant, but
881 still include them in the parse when needed, we will need to know
882 which states can start a "line-like" section of code.  We ignore
883 newlines when there is an indent since the most recent start of a
884 line-like symbol.
885
886 A "line_like" symbol is simply any symbol that can derive a NEWLINE.
887 If a symbol cannot derive a NEWLINE, then it is only part of a line -
888 so is word-like.  If it can derive a NEWLINE, then we consider it to
889 be like a line.
890
891 Clearly the `TK_newline` token can derive a NEWLINE.  Any symbol which
892 is the head of a production that contains a line_like symbol is also a
893 line-like symbol.  We use a new field `line_like` to record this
894 attribute of symbols, and compute it in a repetitive manner similar to
895 `set_nullable`.
896
897 ###### symbol fields
898         int line_like;
899
900 ###### functions
901         static void set_line_like(struct grammar *g)
902         {
903                 int check_again = 1;
904                 g->symtab[TK_newline]->line_like = 1;
905                 while (check_again) {
906                         int p;
907                         check_again = 0;
908                         for (p = 0; p < g->production_count; p++) {
909                                 struct production *pr = g->productions[p];
910                                 int s;
911
912                                 if (pr->head->line_like)
913                                         continue;
914
915                                 for (s = 0 ; s < pr->body_size; s++) {
916                                         if (pr->body[s]->line_like) {
917                                                 pr->head->line_like = 1;
918                                                 check_again = 1;
919                                                 break;
920                                         }
921                                 }
922                         }
923                 }
924         }
925
926 ### Building the `first` sets
927
928 When calculating what can follow a particular non-terminal, we will need to
929 know what the "first" terminal in any subsequent non-terminal might be.  So
930 we calculate the `first` set for every non-terminal and store them in an
931 array.  We don't bother recording the "first" set for terminals as they are
932 trivial.
933
934 As the "first" for one symbol might depend on the "first" of another,
935 we repeat the calculations until no changes happen, just like with
936 `set_nullable`.  This makes use of the fact that `symset_union`
937 reports if any change happens.
938
939 The core of this, which finds the "first" of part of a production body,
940 will be reused for computing the "follow" sets, so we split it out
941 into a separate function.
942
943 ###### grammar fields
944         struct symset *first;
945
946 ###### functions
947
948         static int add_first(struct production *pr, int start,
949                              struct symset *target, struct grammar *g,
950                              int *to_end)
951         {
952                 int s;
953                 int changed = 0;
954                 for (s = start; s < pr->body_size; s++) {
955                         struct symbol *bs = pr->body[s];
956                         if (bs->type == Terminal) {
957                                 if (symset_find(target, bs->num) < 0) {
958                                         symset_add(target, bs->num, 0);
959                                         changed = 1;
960                                 }
961                                 break;
962                         } else if (symset_union(target, &g->first[bs->num]))
963                                 changed = 1;
964                         if (!bs->nullable)
965                                 break;
966                 }
967                 if (to_end)
968                         *to_end = (s == pr->body_size);
969                 return changed;
970         }
971
972         static void build_first(struct grammar *g)
973         {
974                 int check_again = 1;
975                 int s;
976                 g->first = calloc(g->num_syms, sizeof(g->first[0]));
977                 for (s = 0; s < g->num_syms; s++)
978                         g->first[s] = INIT_SYMSET;
979
980                 while (check_again) {
981                         int p;
982                         check_again = 0;
983                         for (p = 0; p < g->production_count; p++) {
984                                 struct production *pr = g->productions[p];
985                                 struct symset *head = &g->first[pr->head->num];
986
987                                 if (add_first(pr, 0, head, g, NULL))
988                                         check_again = 1;
989                         }
990                 }
991         }
992
993 ### Building the `follow` sets.
994
995 There are two different situations when we will want to generate "follow"
996 sets.  If we are doing an SLR analysis, we want to generate a single
997 "follow" set for each non-terminal in the grammar.  That is what is
998 happening here.  If we are doing an LALR or LR analysis we will want
999 to generate a separate "LA" set for each item.  We do that later
1000 in state generation.
1001
1002 There are two parts to generating a "follow" set.  Firstly we look at
1003 every place that any non-terminal appears in the body of any
1004 production, and we find the set of possible "first" symbols after
1005 there.  This is done using `add_first` above and only needs to be done
1006 once as the "first" sets are now stable and will not change.
1007
1008 ###### follow code
1009
1010         for (p = 0; p < g->production_count; p++) {
1011                 struct production *pr = g->productions[p];
1012                 int b;
1013
1014                 for (b = 0; b < pr->body_size - 1; b++) {
1015                         struct symbol *bs = pr->body[b];
1016                         if (bs->type == Terminal)
1017                                 continue;
1018                         add_first(pr, b+1, &g->follow[bs->num], g, NULL);
1019                 }
1020         }
1021
1022 The second part is to add the "follow" set of the head of a production
1023 to the "follow" sets of the final symbol in the production, and any
1024 other symbol which is followed only by `nullable` symbols.  As this
1025 depends on "follow" itself we need to repeatedly perform the process
1026 until no further changes happen.
1027
1028 ###### follow code
1029
1030         for (again = 0, p = 0;
1031              p < g->production_count;
1032              p < g->production_count-1
1033                 ? p++ : again ? (again = 0, p = 0)
1034                               : p++) {
1035                 struct production *pr = g->productions[p];
1036                 int b;
1037
1038                 for (b = pr->body_size - 1; b >= 0; b--) {
1039                         struct symbol *bs = pr->body[b];
1040                         if (bs->type == Terminal)
1041                                 break;
1042                         if (symset_union(&g->follow[bs->num],
1043                                          &g->follow[pr->head->num]))
1044                                 again = 1;
1045                         if (!bs->nullable)
1046                                 break;
1047                 }
1048         }
1049
1050 We now just need to create and initialise the `follow` list to get a
1051 complete function.
1052
1053 ###### grammar fields
1054         struct symset *follow;
1055
1056 ###### functions
1057         static void build_follow(struct grammar *g)
1058         {
1059                 int s, again, p;
1060                 g->follow = calloc(g->num_syms, sizeof(g->follow[0]));
1061                 for (s = 0; s < g->num_syms; s++)
1062                         g->follow[s] = INIT_SYMSET;
1063                 ## follow code
1064         }
1065
1066 ### Building itemsets and states
1067
1068 There are three different levels of detail that can be chosen for
1069 building the itemsets and states for the LR grammar.  They are:
1070
1071 1. LR(0) or SLR(1), where no look-ahead is considered.
1072 2. LALR(1) where we build look-ahead sets with each item and merge
1073    the LA sets when we find two paths to the same "kernel" set of items.
1074 3. LR(1) where different look-ahead for any item in the set means
1075    a different state must be created.
1076
1077 ###### forward declarations
1078         enum grammar_type { LR0, LR05, SLR, LALR, LR1 };
1079
1080 We need to be able to look through existing states to see if a newly
1081 generated state already exists.  For now we use a simple sorted linked
1082 list.
1083
1084 An item is a pair of numbers: the production number and the position of
1085 "DOT", which is an index into the body of the production.
1086 As the numbers are not enormous we can combine them into a single "short"
1087 and store them in a `symset` - 4 bits for "DOT" and 12 bits for the
1088 production number (so 4000 productions with maximum of 15 symbols in the
1089 body).
1090
1091 Comparing the itemsets will be a little different to comparing symsets
1092 as we want to do the lookup after generating the "kernel" of an
1093 itemset, so we need to ignore the offset=zero items which are added during
1094 completion.
1095
1096 To facilitate this, we modify the "DOT" number so that "0" sorts to
1097 the end of the list in the symset, and then only compare items before
1098 the first "0".
1099
1100 ###### declarations
1101         static inline unsigned short item_num(int production, int index)
1102         {
1103                 return production | ((31-index) << 11);
1104         }
1105         static inline int item_prod(unsigned short item)
1106         {
1107                 return item & 0x7ff;
1108         }
1109         static inline int item_index(unsigned short item)
1110         {
1111                 return (31-(item >> 11)) & 0x1f;
1112         }
1113
1114 For LR(1) analysis we need to compare not just the itemset in a state
1115 but also the LA sets.  As we assign each unique LA set a number, we
1116 can just compare the symset and the data values together.
1117
1118 ###### functions
1119         static int itemset_cmp(struct symset a, struct symset b,
1120                                enum grammar_type type)
1121         {
1122                 int i;
1123                 int av, bv;
1124
1125                 for (i = 0;
1126                      i < a.cnt && i < b.cnt &&
1127                      item_index(a.syms[i]) > 0 &&
1128                      item_index(b.syms[i]) > 0;
1129                      i++) {
1130                         int diff = a.syms[i] - b.syms[i];
1131                         if (diff)
1132                                 return diff;
1133                         if (type == LR1) {
1134                                 diff = a.data[i] - b.data[i];
1135                                 if (diff)
1136                                         return diff;
1137                         }
1138                 }
1139                 if (i == a.cnt || item_index(a.syms[i]) == 0)
1140                         av = -1;
1141                 else
1142                         av = a.syms[i];
1143                 if (i == b.cnt || item_index(b.syms[i]) == 0)
1144                         bv = -1;
1145                 else
1146                         bv = b.syms[i];
1147                 if (av - bv)
1148                         return av - bv;
1149                 if (type < LR1 || av == -1)
1150                         return 0;
1151                 return
1152                         a.data[i] - b.data[i];
1153         }
1154
1155 It will be helpful to know if an itemset has been "completed" or not,
1156 particularly for LALR where itemsets get merged, at which point they
1157 need to be consider for completion again.  So  a `completed` flag is needed.
1158
1159 For correct handling of `TK_newline` when parsing, we will need to
1160 know which states (itemsets) can occur at the start of a line, so we
1161 will record a `starts_line` flag too whenever DOT is at the start of a
1162 `line_like` symbol.
1163
1164 Finally, for handling `TK_out` we need to know whether productions in the
1165 current state started *before* the most recent indent.  A state
1166 doesn't usually keep details of individual productions, so we need to
1167 add one extra detail. `min_prefix` is the smallest non-zero number of
1168 symbols *before* DOT in any production in an itemset.  This will allow
1169 us to determine if the the most recent indent is sufficiently recent
1170 to cancel it against a `TK_out`.  If it was seen longer ago than the
1171 `min_prefix`, and if the current state cannot be reduced, then the
1172 indented section must have ended in the middle of a syntactic unit, so
1173 an error must be signaled.
1174
1175 And now we can build the list of itemsets.  The lookup routine returns
1176 both a success flag and a pointer to where in the list an insert
1177 should happen, so we don't need to search a second time.
1178
1179 ###### declarations
1180         struct itemset {
1181                 struct itemset *next;
1182                 short state;
1183                 struct symset items;
1184                 struct symset go_to;
1185                 enum assoc assoc;
1186                 unsigned short precedence;
1187                 char completed;
1188                 char starts_line;
1189                 int min_prefix;
1190         };
1191
1192 ###### grammar fields
1193         struct itemset *items;
1194         int states;
1195
1196 ###### functions
1197         static int itemset_find(struct grammar *g, struct itemset ***where,
1198                                 struct symset kernel, enum grammar_type type)
1199         {
1200                 struct itemset **ip;
1201
1202                 for (ip = &g->items; *ip ; ip = & (*ip)->next) {
1203                         struct itemset *i = *ip;
1204                         int diff;
1205                         diff = itemset_cmp(i->items, kernel, type);
1206                         if (diff < 0)
1207                                 continue;
1208                         if (diff > 0)
1209                                 break;
1210                         /* found */
1211                         *where = ip;
1212                         return 1;
1213                 }
1214                 *where = ip;
1215                 return 0;
1216         }
1217
1218 Adding an itemset may require merging the LA sets if LALR analysis is
1219 happening. If any new LA set adds any symbols that weren't in the old LA set, we
1220 clear the `completed` flag so that the dependants of this itemset will be
1221 recalculated and their LA sets updated.
1222
1223 `add_itemset` must consume the symsets it is passed, either by adding
1224 them to a data structure, of freeing them.
1225
1226         static int add_itemset(struct grammar *g, struct symset ss,
1227                                enum assoc assoc, unsigned short precedence,
1228                                enum grammar_type type)
1229         {
1230                 struct itemset **where, *is;
1231                 int i;
1232                 int found = itemset_find(g, &where, ss, type);
1233                 if (!found) {
1234                         is = calloc(1, sizeof(*is));
1235                         is->state = g->states;
1236                         g->states += 1;
1237                         is->items = ss;
1238                         is->assoc = assoc;
1239                         is->precedence = precedence;
1240                         is->next = *where;
1241                         is->go_to = INIT_DATASET;
1242                         *where = is;
1243                         return is->state;
1244                 }
1245                 is = *where;
1246                 if (type != LALR) {
1247                         symset_free(ss);
1248                         return is->state;
1249                 }
1250                 for (i = 0; i < ss.cnt; i++) {
1251                         struct symset temp = INIT_SYMSET, s;
1252                         if (ss.data[i] == is->items.data[i])
1253                                 continue;
1254                         s = set_find(g, is->items.data[i]);
1255                         symset_union(&temp, &s);
1256                         s = set_find(g, ss.data[i]);
1257                         if (symset_union(&temp, &s)) {
1258                                 is->items.data[i] = save_set(g, temp);
1259                                 is->completed = 0;
1260                         } else
1261                                 symset_free(temp);
1262                 }
1263                 symset_free(ss);
1264                 return is->state;
1265         }
1266
1267 #### The build
1268
1269 To build all the itemsets, we first insert the initial itemset made
1270 from production zero, complete each itemset, and then generate new
1271 itemsets from old until no new ones can be made.
1272
1273 Completing an itemset means finding all the items where "DOT" is followed by
1274 a nonterminal and adding "DOT=0" items for every production from that
1275 non-terminal - providing each item hasn't already been added.
1276
1277 If LA sets are needed, the LA set for each new item is found using
1278 `add_first` which was developed earlier for `FIRST` and `FOLLOW`.  This may
1279 be supplemented by the LA set for the item which produce the new item.
1280
1281 We also collect a set of all symbols which follow "DOT" (in `done`) as this
1282 is used in the next stage.
1283 If any of these symbols are flagged as `line_like`, then this
1284 state must be a `starts_line` state so now is a good time to record that.
1285
1286 When itemsets are created we assign a precedence to the itemset from
1287 the complete item, if there is one.  We ignore the possibility of
1288 there being two and don't (currently) handle precedence in such
1289 grammars.  When completing a grammar we ignore any item where DOT is
1290 followed by a terminal with a precedence lower (numerically higher)
1291 than that for the itemset.  Unless the terminal has right
1292 associativity, we also ignore items where the terminal has the same
1293 precedence.  The result is that unwanted items are still in the
1294 itemset, but the terminal doesn't get into the go to set, so the item
1295 is ineffective.
1296
1297 ###### complete itemset
1298         for (i = 0; i < is->items.cnt; i++) {
1299                 int p = item_prod(is->items.syms[i]);
1300                 int bs = item_index(is->items.syms[i]);
1301                 struct production *pr = g->productions[p];
1302                 int p2;
1303                 struct symbol *s;
1304                 struct symset LA = INIT_SYMSET;
1305                 unsigned short sn = 0;
1306
1307                 if (is->min_prefix == 0 ||
1308                     (bs > 0 && bs < is->min_prefix))
1309                         is->min_prefix = bs;
1310                 if (bs == pr->body_size)
1311                         continue;
1312                 s = pr->body[bs];
1313                 if (s->precedence && is->precedence &&
1314                     is->precedence < s->precedence)
1315                         /* This terminal has a low precedence and
1316                          * shouldn't be shifted
1317                          */
1318                         continue;
1319                 if (s->precedence && is->precedence &&
1320                     is->precedence == s->precedence && s->assoc != Right)
1321                         /* This terminal has a matching precedence and is
1322                          * not Right-associative, so we mustn't shift it.
1323                          */
1324                         continue;
1325                 if (symset_find(&done, s->num) < 0) {
1326                         symset_add(&done, s->num, 0);
1327                         if (s->line_like)
1328                                 is->starts_line = 1;
1329                 }
1330                 if (s->type != Nonterminal)
1331                         continue;
1332                 again = 1;
1333                 if (type >= LALR) {
1334                         // Need the LA set.
1335                         int to_end;
1336                         add_first(pr, bs+1, &LA, g, &to_end);
1337                         if (to_end) {
1338                                 struct symset ss = set_find(g, is->items.data[i]);
1339                                 symset_union(&LA, &ss);
1340                         }
1341                         sn = save_set(g, LA);
1342                         LA = set_find(g, sn);
1343                 }
1344
1345                 /* Add productions for this symbol */
1346                 for (p2 = s->first_production;
1347                      p2 < g->production_count &&
1348                       g->productions[p2]->head == s;
1349                      p2++) {
1350                         int itm = item_num(p2, 0);
1351                         int pos = symset_find(&is->items, itm);
1352                         if (pos < 0) {
1353                                 symset_add(&is->items, itm, sn);
1354                                 /* Will have re-ordered, so start
1355                                  * from beginning again */
1356                                 i = -1;
1357                         } else if (type >= LALR) {
1358                                 struct symset ss = set_find(g, is->items.data[pos]);
1359                                 struct symset tmp = INIT_SYMSET;
1360
1361                                 symset_union(&tmp, &ss);
1362                                 if (symset_union(&tmp, &LA)) {
1363                                         is->items.data[pos] = save_set(g, tmp);
1364                                         i = -1;
1365                                 }else
1366                                         symset_free(tmp);
1367                         }
1368                 }
1369         }
1370
1371 For each symbol we found (and placed in `done`) we collect all the items for
1372 which this symbol is next, and create a new itemset with "DOT" advanced over
1373 the symbol.  This is then added to the collection of itemsets (or merged
1374 with a pre-existing itemset).
1375
1376 ###### derive itemsets
1377         // Now we have a completed itemset, so we need to
1378         // compute all the 'next' itemsets and create them
1379         // if they don't exist.
1380         for (i = 0; i < done.cnt; i++) {
1381                 int j;
1382                 unsigned short state;
1383                 struct symbol *sym = g->symtab[done.syms[i]];
1384                 enum assoc assoc = Non;
1385                 unsigned short precedence = 0;
1386                 struct symset newitemset = INIT_SYMSET;
1387                 if (type >= LALR)
1388                         newitemset = INIT_DATASET;
1389
1390                 for (j = 0; j < is->items.cnt; j++) {
1391                         int itm = is->items.syms[j];
1392                         int p = item_prod(itm);
1393                         int bp = item_index(itm);
1394                         struct production *pr = g->productions[p];
1395                         unsigned short la = 0;
1396                         int pos;
1397
1398                         if (bp == pr->body_size)
1399                                 continue;
1400                         if (pr->body[bp] != sym)
1401                                 continue;
1402                         if (type >= LALR)
1403                                 la = is->items.data[j];
1404                         pos = symset_find(&newitemset, pr->head->num);
1405                         if (bp + 1 == pr->body_size &&
1406                             pr->precedence > 0 &&
1407                             (precedence == 0 ||
1408                              pr->precedence < precedence)) {
1409                                 // new itemset is reducible and has a precedence.
1410                                 precedence = pr->precedence;
1411                                 assoc = pr->assoc;
1412                         }
1413                         if (pos < 0)
1414                                 symset_add(&newitemset, item_num(p, bp+1), la);
1415                         else if (type >= LALR) {
1416                                 // Need to merge la set.
1417                                 int la2 = newitemset.data[pos];
1418                                 if (la != la2) {
1419                                         struct symset ss = set_find(g, la2);
1420                                         struct symset LA = INIT_SYMSET;
1421                                         symset_union(&LA, &ss);
1422                                         ss = set_find(g, la);
1423                                         if (symset_union(&LA, &ss))
1424                                                 newitemset.data[pos] = save_set(g, LA);
1425                                         else
1426                                                 symset_free(LA);
1427                                 }
1428                         }
1429                 }
1430                 state = add_itemset(g, newitemset, assoc, precedence, type);
1431                 if (symset_find(&is->go_to, done.syms[i]) < 0)
1432                         symset_add(&is->go_to, done.syms[i], state);
1433         }
1434
1435 All that is left is to create the initial itemset from production zero, and
1436 with `TK_eof` as the LA set.
1437
1438 ###### functions
1439         static void build_itemsets(struct grammar *g, enum grammar_type type)
1440         {
1441                 struct symset first = INIT_SYMSET;
1442                 struct itemset *is;
1443                 int again;
1444                 unsigned short la = 0;
1445                 if (type >= LALR) {
1446                         // LA set just has eof
1447                         struct symset eof = INIT_SYMSET;
1448                         symset_add(&eof, TK_eof, 0);
1449                         la = save_set(g, eof);
1450                         first = INIT_DATASET;
1451                 }
1452                 // production 0, offset 0 (with no data)
1453                 symset_add(&first, item_num(0, 0), la);
1454                 add_itemset(g, first, Non, 0, type);
1455                 for (again = 0, is = g->items;
1456                      is;
1457                      is = is->next ?: again ? (again = 0, g->items) : NULL) {
1458                         int i;
1459                         struct symset done = INIT_SYMSET;
1460                         if (is->completed)
1461                                 continue;
1462                         is->completed = 1;
1463                         again = 1;
1464                         ## complete itemset
1465                         ## derive itemsets
1466                         symset_free(done);
1467                 }
1468         }
1469
1470 ### Completing the analysis.
1471
1472 The exact process of analysis depends on which level was requested.  For
1473 `LR0` and `LR05` we don't need first and follow sets at all.  For `LALR` and
1474 `LR1` we need first, but not follow.  For `SLR` we need both.
1475
1476 We don't build the "action" tables that you might expect as the parser
1477 doesn't use them.  They will be calculated to some extent if needed for
1478 a report.
1479
1480 Once we have built everything we allocate arrays for the two lists:
1481 symbols and itemsets.  This allows more efficient access during reporting.
1482 The symbols are grouped as terminals and non-terminals and we record the
1483 changeover point in `first_nonterm`.
1484
1485 ###### grammar fields
1486         struct symbol **symtab;
1487         struct itemset **statetab;
1488         int first_nonterm;
1489
1490 ###### grammar_analyse
1491
1492         static void grammar_analyse(struct grammar *g, enum grammar_type type)
1493         {
1494                 struct symbol *s;
1495                 struct itemset *is;
1496                 int snum = TK_reserved;
1497                 for (s = g->syms; s; s = s->next)
1498                         if (s->num < 0 && s->type == Terminal) {
1499                                 s->num = snum;
1500                                 snum++;
1501                         }
1502                 g->first_nonterm = snum;
1503                 for (s = g->syms; s; s = s->next)
1504                         if (s->num < 0) {
1505                                 s->num = snum;
1506                                 snum++;
1507                         }
1508                 g->num_syms = snum;
1509                 g->symtab = calloc(g->num_syms, sizeof(g->symtab[0]));
1510                 for (s = g->syms; s; s = s->next)
1511                         g->symtab[s->num] = s;
1512
1513                 set_nullable(g);
1514                 set_line_like(g);
1515                 if (type >= SLR)
1516                         build_first(g);
1517
1518                 if (type == SLR)
1519                         build_follow(g);
1520
1521                 build_itemsets(g, type);
1522
1523                 g->statetab = calloc(g->states, sizeof(g->statetab[0]));
1524                 for (is = g->items; is ; is = is->next)
1525                         g->statetab[is->state] = is;
1526         }
1527
1528 ## Reporting on the Grammar
1529
1530 The purpose of the report is to give the grammar developer insight into
1531 how the grammar parser will work.  It is basically a structured dump of
1532 all the tables that have been generated, plus a description of any conflicts.
1533
1534 ###### grammar_report
1535         static int grammar_report(struct grammar *g, enum grammar_type type)
1536         {
1537                 report_symbols(g);
1538                 if (g->follow)
1539                         report_follow(g);
1540                 report_itemsets(g);
1541                 return report_conflicts(g, type);
1542         }
1543
1544 Firstly we have the complete list of symbols, together with the
1545 "FIRST" set if that was generated.  We add a mark to each symbol to
1546 show if it can end in a newline (`>`), if it is considered to be
1547 "line-like" (`<`), or if it is nullable (`.`).
1548
1549 ###### functions
1550
1551         static void report_symbols(struct grammar *g)
1552         {
1553                 int n;
1554                 if (g->first)
1555                         printf("SYMBOLS + FIRST:\n");
1556                 else
1557                         printf("SYMBOLS:\n");
1558
1559                 for (n = 0; n < g->num_syms; n++) {
1560                         struct symbol *s = g->symtab[n];
1561                         if (!s)
1562                                 continue;
1563
1564                         printf(" %c%c%3d%c: ",
1565                                s->nullable ? '.':' ',
1566                                s->line_like ? '<':' ',
1567                                s->num, symtypes[s->type]);
1568                         prtxt(s->name);
1569                         if (s->precedence)
1570                                 printf(" (%d%s)", s->precedence,
1571                                        assoc_names[s->assoc]);
1572
1573                         if (g->first && s->type == Nonterminal) {
1574                                 int j;
1575                                 char c = ':';
1576                                 for (j = 0; j < g->first[n].cnt; j++) {
1577                                         printf("%c ", c);
1578                                         c = ',';
1579                                         prtxt(g->symtab[g->first[n].syms[j]]->name);
1580                                 }
1581                         }
1582                         printf("\n");
1583                 }
1584         }
1585
1586 Then we have the follow sets if they were computed.
1587
1588         static void report_follow(struct grammar *g)
1589         {
1590                 int n;
1591                 printf("FOLLOW:\n");
1592                 for (n = 0; n < g->num_syms; n++)
1593                         if (g->follow[n].cnt) {
1594                                 int j;
1595                                 char c = ':';
1596                                 printf("  ");
1597                                 prtxt(g->symtab[n]->name);
1598                                 for (j = 0; j < g->follow[n].cnt; j++) {
1599                                         printf("%c ", c);
1600                                         c = ',';
1601                                         prtxt(g->symtab[g->follow[n].syms[j]]->name);
1602                                 }
1603                                 printf("\n");
1604                         }
1605         }
1606
1607 And finally the item sets.  These include the GO TO tables and, for
1608 LALR and LR1, the LA set for each item.  Lots of stuff, so we break
1609 it up a bit.  First the items, with production number and associativity.
1610
1611         static void report_item(struct grammar *g, int itm)
1612         {
1613                 int p = item_prod(itm);
1614                 int dot = item_index(itm);
1615                 struct production *pr = g->productions[p];
1616                 int i;
1617
1618                 printf("    ");
1619                 prtxt(pr->head->name);
1620                 printf(" ->");
1621                 for (i = 0; i < pr->body_size; i++) {
1622                         printf(" %s", (dot == i ? ". ": ""));
1623                         prtxt(pr->body[i]->name);
1624                 }
1625                 if (dot == pr->body_size)
1626                         printf(" .");
1627                 printf(" [%d]", p);
1628                 if (pr->precedence && dot == pr->body_size)
1629                         printf(" (%d%s)", pr->precedence,
1630                                assoc_names[pr->assoc]);
1631                 if (dot < pr->body_size &&
1632                     pr->body[dot]->precedence) {
1633                         struct symbol *s = pr->body[dot];
1634                         printf(" [%d%s]", s->precedence,
1635                                assoc_names[s->assoc]);
1636                 }
1637                 printf("\n");
1638         }
1639
1640 The LA sets which are (possibly) reported with each item:
1641
1642         static void report_la(struct grammar *g, int lanum)
1643         {
1644                 struct symset la = set_find(g, lanum);
1645                 int i;
1646                 char c = ':';
1647
1648                 printf("        LOOK AHEAD(%d)", lanum);
1649                 for (i = 0; i < la.cnt; i++) {
1650                         printf("%c ", c);
1651                         c = ',';
1652                         prtxt(g->symtab[la.syms[i]]->name);
1653                 }
1654                 printf("\n");
1655         }
1656
1657 Then the go to sets:
1658
1659         static void report_goto(struct grammar *g, struct symset gt)
1660         {
1661                 int i;
1662                 printf("    GOTO:\n");
1663
1664                 for (i = 0; i < gt.cnt; i++) {
1665                         printf("      ");
1666                         prtxt(g->symtab[gt.syms[i]]->name);
1667                         printf(" -> %d\n", gt.data[i]);
1668                 }
1669         }
1670
1671 Now we can report all the item sets complete with items, LA sets, and GO TO.
1672
1673         static void report_itemsets(struct grammar *g)
1674         {
1675                 int s;
1676                 printf("ITEM SETS(%d)\n", g->states);
1677                 for (s = 0; s < g->states; s++) {
1678                         int j;
1679                         struct itemset *is = g->statetab[s];
1680                         printf("  Itemset %d:%s min prefix=%d",
1681                                s, is->starts_line?" (startsline)":"", is->min_prefix);
1682                         if (is->precedence)
1683                                 printf(" %d%s", is->precedence, assoc_names[is->assoc]);
1684                         printf("\n");
1685                         for (j = 0; j < is->items.cnt; j++) {
1686                                 report_item(g, is->items.syms[j]);
1687                                 if (is->items.data != NO_DATA)
1688                                         report_la(g, is->items.data[j]);
1689                         }
1690                         report_goto(g, is->go_to);
1691                 }
1692         }
1693
1694 ### Reporting conflicts
1695
1696 Conflict detection varies a lot among different analysis levels.  However
1697 LR0 and LR0.5 are quite similar - having no follow sets, and SLR, LALR and
1698 LR1 are also similar as they have FOLLOW or LA sets.
1699
1700 ###### functions
1701
1702         ## conflict functions
1703
1704         static int report_conflicts(struct grammar *g, enum grammar_type type)
1705         {
1706                 int cnt = 0;
1707                 printf("Conflicts:\n");
1708                 if (type < SLR)
1709                         cnt = conflicts_lr0(g, type);
1710                 else
1711                         cnt = conflicts_slr(g, type);
1712                 if (cnt == 0)
1713                         printf(" - no conflicts\n");
1714                 return cnt;
1715         }
1716
1717 LR0 conflicts are any state which have both a reducible item and
1718 a shiftable item, or two reducible items.
1719
1720 LR05 conflicts only occur if two possible reductions exist,
1721 as shifts always over-ride reductions.
1722
1723 ###### conflict functions
1724         static int conflicts_lr0(struct grammar *g, enum grammar_type type)
1725         {
1726                 int i;
1727                 int cnt = 0;
1728                 for (i = 0; i < g->states; i++) {
1729                         struct itemset *is = g->statetab[i];
1730                         int last_reduce = -1;
1731                         int prev_reduce = -1;
1732                         int last_shift = -1;
1733                         int j;
1734                         if (!is)
1735                                 continue;
1736                         for (j = 0; j < is->items.cnt; j++) {
1737                                 int itm = is->items.syms[j];
1738                                 int p = item_prod(itm);
1739                                 int bp = item_index(itm);
1740                                 struct production *pr = g->productions[p];
1741
1742                                 if (bp == pr->body_size) {
1743                                         prev_reduce = last_reduce;
1744                                         last_reduce = j;
1745                                         continue;
1746                                 }
1747                                 if (pr->body[bp]->type == Terminal)
1748                                         last_shift = j;
1749                         }
1750                         if (type == LR0 && last_reduce >= 0 && last_shift >= 0) {
1751                                 printf("  State %d has both SHIFT and REDUCE:\n", i);
1752                                 report_item(g, is->items.syms[last_shift]);
1753                                 report_item(g, is->items.syms[last_reduce]);
1754                                 cnt++;
1755                         }
1756                         if (prev_reduce >= 0) {
1757                                 printf("  State %d has 2 (or more) reducible items\n", i);
1758                                 report_item(g, is->items.syms[prev_reduce]);
1759                                 report_item(g, is->items.syms[last_reduce]);
1760                                 cnt++;
1761                         }
1762                 }
1763                 return cnt;
1764         }
1765
1766 SLR, LALR, and LR1 conflicts happen if two reducible items have over-lapping
1767 look ahead, or if a symbol in a look-ahead can be shifted.  They differ only
1768 in the source of the look ahead set.
1769
1770 We build two datasets to reflect the "action" table: one which maps
1771 terminals to items where that terminal could be shifted and another
1772 which maps terminals to items that could be reduced when the terminal
1773 is in look-ahead.  We report when we get conflicts between the two.
1774
1775 As a special case, if we find a SHIFT/REDUCE conflict, where a
1776 terminal that could be shifted is in the lookahead set of some
1777 reducable item, then set check if the reducable item also have
1778 `TK_newline` in its lookahead set.  If it does, then a newline will
1779 force the reduction, but anything else can reasonably be shifted, so
1780 that isn't really a conflict.  Such apparent conflicts do not get
1781 counted, and are reported as non-critical.  This will not affect a
1782 "traditional" grammar that does not include newlines as token.
1783
1784         static int conflicts_slr(struct grammar *g, enum grammar_type type)
1785         {
1786                 int i;
1787                 int cnt = 0;
1788
1789                 for (i = 0; i < g->states; i++) {
1790                         struct itemset *is = g->statetab[i];
1791                         struct symset shifts = INIT_DATASET;
1792                         struct symset reduce = INIT_DATASET;
1793                         int j;
1794                         if (!is)
1795                                 continue;
1796                         /* First collect the shifts */
1797                         for (j = 0; j < is->items.cnt; j++) {
1798                                 unsigned short itm = is->items.syms[j];
1799                                 int p = item_prod(itm);
1800                                 int bp = item_index(itm);
1801                                 struct production *pr = g->productions[p];
1802
1803                                 if (bp < pr->body_size &&
1804                                     pr->body[bp]->type == Terminal) {
1805                                         /* shiftable */
1806                                         int sym = pr->body[bp]->num;
1807                                         if (symset_find(&shifts, sym) < 0)
1808                                                 symset_add(&shifts, sym, itm);
1809                                 }
1810                         }
1811                         /* Now look for reductions and conflicts */
1812                         for (j = 0; j < is->items.cnt; j++) {
1813                                 unsigned short itm = is->items.syms[j];
1814                                 int p = item_prod(itm);
1815                                 int bp = item_index(itm);
1816                                 struct production *pr = g->productions[p];
1817
1818                                 if (bp < pr->body_size)
1819                                         continue;
1820                                 /* reducible */
1821                                 struct symset la;
1822                                 if (type == SLR)
1823                                         la = g->follow[pr->head->num];
1824                                 else
1825                                         la = set_find(g, is->items.data[j]);
1826                                 int k;
1827                                 for (k = 0; k < la.cnt; k++) {
1828                                         int pos = symset_find(&shifts, la.syms[k]);
1829                                         if (pos >= 0) {
1830                                                 if (symset_find(&la, TK_newline) < 0) {
1831                                                         printf("  State %d has SHIFT/REDUCE conflict on ", i);
1832                                                         cnt++;
1833                                                 } else
1834                                                         printf("  State %d has non-critical SHIFT/REDUCE conflict on ", i);
1835                                                 prtxt(g->symtab[la.syms[k]]->name);
1836                                                 printf(":\n");
1837                                                 report_item(g, shifts.data[pos]);
1838                                                 report_item(g, itm);
1839                                         }
1840                                         pos = symset_find(&reduce, la.syms[k]);
1841                                         if (pos < 0) {
1842                                                 symset_add(&reduce, la.syms[k], itm);
1843                                                 continue;
1844                                         }
1845                                         printf("  State %d has REDUCE/REDUCE conflict on ", i);
1846                                         prtxt(g->symtab[la.syms[k]]->name);
1847                                         printf(":\n");
1848                                         report_item(g, itm);
1849                                         report_item(g, reduce.data[pos]);
1850                                         cnt++;
1851                                 }
1852                         }
1853                         symset_free(shifts);
1854                         symset_free(reduce);
1855                 }
1856                 return cnt;
1857         }
1858
1859 ## Generating the parser
1860
1861 The exported part of the parser is the `parse_XX` function, where the name
1862 `XX` is based on the name of the parser files.
1863
1864 This takes a `code_node`, a partially initialized `token_config`, and an
1865 optional `FILE` to send tracing to.  The `token_config` gets the list of
1866 known words added and then is used with the `code_node` to initialize the
1867 scanner.
1868
1869 `parse_XX` then calls the library function `parser_run` to actually complete
1870 the parse.  This needs the `states` table and function to call the various
1871 pieces of code provided in the grammar file, so they are generated first.
1872
1873 ###### parser_generate
1874
1875         static void gen_parser(FILE *f, struct grammar *g, char *file, char *name)
1876         {
1877                 gen_known(f, g);
1878                 gen_non_term(f, g);
1879                 gen_goto(f, g);
1880                 gen_states(f, g);
1881                 gen_reduce(f, g, file);
1882                 gen_free(f, g);
1883
1884                 fprintf(f, "#line 0 \"gen_parser\"\n");
1885                 fprintf(f, "void *parse_%s(struct code_node *code, struct token_config *config, FILE *trace)\n",
1886                         name);
1887                 fprintf(f, "{\n");
1888                 fprintf(f, "\tstruct token_state *tokens;\n");
1889                 fprintf(f, "\tconfig->words_marks = known;\n");
1890                 fprintf(f, "\tconfig->known_count = sizeof(known)/sizeof(known[0]);\n");
1891                 fprintf(f, "\tconfig->ignored |= (1 << TK_line_comment) | (1 << TK_block_comment);\n");
1892                 fprintf(f, "\ttokens = token_open(code, config);\n");
1893                 fprintf(f, "\tvoid *rv = parser_run(tokens, states, do_reduce, do_free, trace, non_term, config);\n");
1894                 fprintf(f, "\ttoken_close(tokens);\n");
1895                 fprintf(f, "\treturn rv;\n");
1896                 fprintf(f, "}\n\n");
1897         }
1898
1899 ### Known words table
1900
1901 The known words table is simply an array of terminal symbols.
1902 The table of nonterminals used for tracing is a similar array.
1903
1904 ###### functions
1905
1906         static void gen_known(FILE *f, struct grammar *g)
1907         {
1908                 int i;
1909                 fprintf(f, "#line 0 \"gen_known\"\n");
1910                 fprintf(f, "static const char *known[] = {\n");
1911                 for (i = TK_reserved;
1912                      i < g->num_syms && g->symtab[i]->type == Terminal;
1913                      i++)
1914                         fprintf(f, "\t\"%.*s\",\n", g->symtab[i]->name.len,
1915                                 g->symtab[i]->name.txt);
1916                 fprintf(f, "};\n\n");
1917         }
1918
1919         static void gen_non_term(FILE *f, struct grammar *g)
1920         {
1921                 int i;
1922                 fprintf(f, "#line 0 \"gen_non_term\"\n");
1923                 fprintf(f, "static const char *non_term[] = {\n");
1924                 for (i = TK_reserved;
1925                      i < g->num_syms;
1926                      i++)
1927                         if (g->symtab[i]->type == Nonterminal)
1928                                 fprintf(f, "\t\"%.*s\",\n", g->symtab[i]->name.len,
1929                                         g->symtab[i]->name.txt);
1930                 fprintf(f, "};\n\n");
1931         }
1932
1933 ### States and the goto tables.
1934
1935 For each state we record the goto table, the reducible production if
1936 there is one, or a symbol to shift for error recovery.
1937 Some of the details of the reducible production are stored in the
1938 `do_reduce` function to come later.  Here we store the production number,
1939 the body size (useful for stack management) and the resulting symbol (useful
1940 for knowing how to free data later).
1941
1942 The go to table is stored in a simple array of `sym` and corresponding
1943 `state`.
1944
1945 ###### exported types
1946
1947         struct lookup {
1948                 short sym;
1949                 short state;
1950         };
1951         struct state {
1952                 short go_to_cnt;
1953                 const struct lookup * go_to;
1954                 short reduce_prod;
1955                 short reduce_size;
1956                 short reduce_sym;
1957                 short starts_line;
1958                 short min_prefix;
1959         };
1960
1961 ###### functions
1962
1963         static void gen_goto(FILE *f, struct grammar *g)
1964         {
1965                 int i;
1966                 fprintf(f, "#line 0 \"gen_goto\"\n");
1967                 for (i = 0; i < g->states; i++) {
1968                         int j;
1969                         fprintf(f, "static const struct lookup goto_%d[] = {\n",
1970                                 i);
1971                         struct symset gt = g->statetab[i]->go_to;
1972                         for (j = 0; j < gt.cnt; j++)
1973                                 fprintf(f, "\t{ %d, %d },\n",
1974                                         gt.syms[j], gt.data[j]);
1975                         fprintf(f, "};\n");
1976                 }
1977         }
1978
1979 ###### functions
1980
1981         static void gen_states(FILE *f, struct grammar *g)
1982         {
1983                 int i;
1984                 fprintf(f, "#line 0 \"gen_states\"\n");
1985                 fprintf(f, "static const struct state states[] = {\n");
1986                 for (i = 0; i < g->states; i++) {
1987                         struct itemset *is = g->statetab[i];
1988                         int j, prod = -1, prod_len;
1989
1990                         for (j = 0; j < is->items.cnt; j++) {
1991                                 int itm = is->items.syms[j];
1992                                 int p = item_prod(itm);
1993                                 int bp = item_index(itm);
1994                                 struct production *pr = g->productions[p];
1995
1996                                 if (bp < pr->body_size)
1997                                         continue;
1998                                 /* This is what we reduce */
1999                                 if (prod < 0 || prod_len < pr->body_size) {
2000                                         prod = p;
2001                                         prod_len = pr->body_size;
2002                                 }
2003                         }
2004
2005                         if (prod >= 0)
2006                                 fprintf(f, "\t[%d] = { %d, goto_%d, %d, %d, %d, %d, %d },\n",
2007                                         i, is->go_to.cnt, i, prod,
2008                                         g->productions[prod]->body_size,
2009                                         g->productions[prod]->head->num,
2010                                         is->starts_line, is->min_prefix);
2011                         else
2012                                 fprintf(f, "\t[%d] = { %d, goto_%d, -1, -1, -1, %d, %d },\n",
2013                                         i, is->go_to.cnt, i,
2014                                         is->starts_line, is->min_prefix);
2015                 }
2016                 fprintf(f, "};\n\n");
2017         }
2018
2019 ### The `do_reduce` function and the code
2020
2021 When the parser engine decides to reduce a production, it calls `do_reduce`.
2022 This has two functions.
2023
2024 Firstly, if a non-NULL `trace` file is passed, it prints out details of the
2025 production being reduced.  Secondly it runs the code that was included with
2026 the production if any.
2027
2028 This code needs to be able to store data somewhere.  Rather than requiring
2029 `do_reduce` to `malloc` that "somewhere", we pass in a large buffer and have
2030 `do_reduce` return the size to be saved.
2031
2032 In order for the code to access "global" context, we pass in the
2033 "config" pointer that was passed to parser function.  If the `struct
2034 token_config` is embedded in some larger structure, the reducing code
2035 can access the larger structure using pointer manipulation.
2036
2037 The code fragment requires translation when written out.  Any `$N` needs to
2038 be converted to a reference either to that buffer (if `$0`) or to the
2039 structure returned by a previous reduction.  These pointers need to be cast
2040 to the appropriate type for each access.  All this is handled in
2041 `gen_code`.
2042
2043 `gen_code` also allows symbol references to contain a '`<`' as in '`$<2`'.
2044 This applied only to symbols with references (or pointers), not those with structures.
2045 The `<` implies that the reference it being moved out, so the object will not be
2046 automatically freed.  This is equivalent to assigning `NULL` to the pointer.
2047
2048 ###### functions
2049
2050         static void gen_code(struct production *p, FILE *f, struct grammar *g)
2051         {
2052                 char *c;
2053                 char *used = calloc(1, p->body_size);
2054                 int i;
2055
2056                 fprintf(f, "\t\t\t");
2057                 for (c = p->code.txt; c < p->code.txt + p->code.len; c++) {
2058                         int n;
2059                         int use = 0;
2060                         if (*c != '$') {
2061                                 fputc(*c, f);
2062                                 if (*c == '\n')
2063                                         fputs("\t\t\t", f);
2064                                 continue;
2065                         }
2066                         c++;
2067                         if (*c == '<') {
2068                                 use = 1;
2069                                 c++;
2070                         }
2071                         if (*c < '0' || *c > '9') {
2072                                 if (use)
2073                                         fputc('<', f);
2074                                 fputc(*c, f);
2075                                 continue;
2076                         }
2077                         n = *c - '0';
2078                         while (c[1] >= '0' && c[1] <= '9') {
2079                                 c += 1;
2080                                 n = n * 10 + *c - '0';
2081                         }
2082                         if (n == 0)
2083                                 fprintf(f, "(*(struct %.*s*%s)ret)",
2084                                         p->head->struct_name.len,
2085                                         p->head->struct_name.txt,
2086                                         p->head->isref ? "*":"");
2087                         else if (n > p->body_size)
2088                                 fprintf(f, "$%d", n);
2089                         else if (p->body[n-1]->type == Terminal)
2090                                 fprintf(f, "(*(struct token *)body[%d])",
2091                                         n-1);
2092                         else if (p->body[n-1]->struct_name.txt == NULL)
2093                                 fprintf(f, "$%d", n);
2094                         else {
2095                                 fprintf(f, "(*(struct %.*s*%s)body[%d])",
2096                                         p->body[n-1]->struct_name.len,
2097                                         p->body[n-1]->struct_name.txt,
2098                                         p->body[n-1]->isref ? "*":"", n-1);
2099                                 used[n-1] = use;
2100                         }
2101                 }
2102                 fputs("\n", f);
2103                 for (i = 0; i < p->body_size; i++) {
2104                         if (p->body[i]->struct_name.txt &&
2105                             p->body[i]->isref &&
2106                             used[i])
2107                                 // assume this has been copied out
2108                                 fprintf(f, "\t\t*(void**)body[%d] = NULL;\n", i);
2109                 }
2110                 free(used);
2111         }
2112
2113 ###### functions
2114
2115         static void gen_reduce(FILE *f, struct grammar *g, char *file)
2116         {
2117                 int i;
2118                 fprintf(f, "#line 0 \"gen_reduce\"\n");
2119                 fprintf(f, "static int do_reduce(int prod, void **body, struct token_config *config, void *ret)\n");
2120                 fprintf(f, "{\n");
2121                 fprintf(f, "\tint ret_size = 0;\n");
2122
2123                 fprintf(f, "\tswitch(prod) {\n");
2124                 for (i = 0; i < g->production_count; i++) {
2125                         struct production *p = g->productions[i];
2126                         fprintf(f, "\tcase %d:\n", i);
2127
2128                         if (p->code.txt) {
2129                                 fprintf(f, "#line %d \"%s\"\n", p->code_line, file);
2130                                 gen_code(p, f, g);
2131                         }
2132
2133                         if (p->head->struct_name.txt)
2134                                 fprintf(f, "\t\tret_size = sizeof(struct %.*s%s);\n",
2135                                         p->head->struct_name.len,
2136                                         p->head->struct_name.txt,
2137                                         p->head->isref ? "*":"");
2138
2139                         fprintf(f, "\t\tbreak;\n");
2140                 }
2141                 fprintf(f, "\t}\n\treturn ret_size;\n}\n\n");
2142         }
2143
2144 ### `do_free`
2145
2146 As each non-terminal can potentially cause a different type of data
2147 structure to be allocated and filled in, we need to be able to free it when
2148 done.
2149
2150 It is particularly important to have fine control over freeing during error
2151 recovery where individual stack frames might need to be freed.
2152
2153 For this, the grammar author is required to defined a `free_XX` function for
2154 each structure that is used by a non-terminal.  `do_free` will call whichever
2155 is appropriate given a symbol number, and will call `free` (as is
2156 appropriate for tokens) on any terminal symbol.
2157
2158 ###### functions
2159
2160         static void gen_free(FILE *f, struct grammar *g)
2161         {
2162                 int i;
2163
2164                 fprintf(f, "#line 0 \"gen_free\"\n");
2165                 fprintf(f, "static void do_free(short sym, void *asn)\n");
2166                 fprintf(f, "{\n");
2167                 fprintf(f, "\tif (!asn) return;\n");
2168                 fprintf(f, "\tif (sym < %d) {\n", g->first_nonterm);
2169                 fprintf(f, "\t\tfree(asn);\n\t\treturn;\n\t}\n");
2170                 fprintf(f, "\tswitch(sym) {\n");
2171
2172                 for (i = 0; i < g->num_syms; i++) {
2173                         struct symbol *s = g->symtab[i];
2174                         if (!s ||
2175                             s->type != Nonterminal ||
2176                             s->struct_name.txt == NULL)
2177                                 continue;
2178
2179                         fprintf(f, "\tcase %d:\n", s->num);
2180                         if (s->isref) {
2181                                 fprintf(f, "\t\tfree_%.*s(*(void**)asn);\n",
2182                                         s->struct_name.len,
2183                                         s->struct_name.txt);
2184                                 fprintf(f, "\t\tfree(asn);\n");
2185                         } else
2186                                 fprintf(f, "\t\tfree_%.*s(asn);\n",
2187                                         s->struct_name.len,
2188                                         s->struct_name.txt);
2189                         fprintf(f, "\t\tbreak;\n");
2190                 }
2191                 fprintf(f, "\t}\n}\n\n");
2192         }
2193
2194 ## The main routine.
2195
2196 There are three key parts to the "main" function of parsergen: processing
2197 the arguments, loading the grammar file, and dealing with the grammar.
2198
2199 ### Argument processing.
2200
2201 Command line options allow the selection of analysis mode, name of output
2202 file, and whether or not a report should be generated.  By default we create
2203 a report only if no code output was requested.
2204
2205 The `parse_XX` function name uses the basename of the output file which
2206 should not have a suffix (`.c`).  `.c` is added to the given name for the
2207 code, and `.h` is added for the header (if header text is specifed in the
2208 grammar file).
2209
2210 ###### includes
2211         #include <getopt.h>
2212
2213 ###### declarations
2214         static const struct option long_options[] = {
2215                 { "LR0",        0, NULL, '0' },
2216                 { "LR05",       0, NULL, '5' },
2217                 { "SLR",        0, NULL, 'S' },
2218                 { "LALR",       0, NULL, 'L' },
2219                 { "LR1",        0, NULL, '1' },
2220                 { "tag",        1, NULL, 't' },
2221                 { "report",     0, NULL, 'R' },
2222                 { "output",     1, NULL, 'o' },
2223                 { NULL,         0, NULL, 0   }
2224         };
2225         const char *options = "05SL1t:Ro:";
2226
2227 ###### process arguments
2228         int opt;
2229         char *outfile = NULL;
2230         char *infile;
2231         char *name;
2232         char *tag = NULL;
2233         int report = 1;
2234         enum grammar_type type = LR05;
2235         while ((opt = getopt_long(argc, argv, options,
2236                                   long_options, NULL)) != -1) {
2237                 switch(opt) {
2238                 case '0':
2239                         type = LR0; break;
2240                 case '5':
2241                         type = LR05; break;
2242                 case 'S':
2243                         type = SLR; break;
2244                 case 'L':
2245                         type = LALR; break;
2246                 case '1':
2247                         type = LR1; break;
2248                 case 'R':
2249                         report = 2; break;
2250                 case 'o':
2251                         outfile = optarg; break;
2252                 case 't':
2253                         tag = optarg; break;
2254                 default:
2255                         fprintf(stderr, "Usage: parsergen ...\n");
2256                         exit(1);
2257                 }
2258         }
2259         if (optind < argc)
2260                 infile = argv[optind++];
2261         else {
2262                 fprintf(stderr, "No input file given\n");
2263                 exit(1);
2264         }
2265         if (outfile && report == 1)
2266                 report = 0;
2267         name = outfile;
2268         if (name && strchr(name, '/'))
2269                 name = strrchr(name, '/')+1;
2270
2271         if (optind < argc) {
2272                 fprintf(stderr, "Excess command line arguments\n");
2273                 exit(1);
2274         }
2275
2276 ### Loading the grammar file
2277
2278 To be able to run `mdcode` and `scanner` on the grammar we need to memory
2279 map it.
2280
2281 Once we have extracted the code (with `mdcode`) we expect to find three
2282 sections: header, code, and grammar.  Anything else that is not
2283 excluded by the `--tag` option is an error.
2284
2285 "header" and "code" are optional, though it is hard to build a working
2286 parser with neither. "grammar" must be provided.
2287
2288 ###### includes
2289         #include <fcntl.h>
2290         #include <sys/mman.h>
2291         #include <errno.h>
2292
2293 ###### functions
2294         static int errs;
2295         static void pr_err(char *msg)
2296         {
2297                 errs++;
2298                 fprintf(stderr, "%s\n", msg);
2299         }
2300
2301 ###### load file
2302         struct section *table;
2303         int fd;
2304         int len;
2305         char *file;
2306         fd = open(infile, O_RDONLY);
2307         if (fd < 0) {
2308                 fprintf(stderr, "parsergen: cannot open %s: %s\n",
2309                         infile, strerror(errno));
2310                 exit(1);
2311         }
2312         len = lseek(fd, 0, 2);
2313         file = mmap(NULL, len, PROT_READ, MAP_SHARED, fd, 0);
2314         table = code_extract(file, file+len, pr_err);
2315
2316         struct code_node *hdr = NULL;
2317         struct code_node *code = NULL;
2318         struct code_node *gram = NULL;
2319         for (s = table; s; s = s->next) {
2320                 struct text sec = s->section;
2321                 if (tag && !strip_tag(&sec, tag))
2322                         continue;
2323                 if (text_is(sec, "header"))
2324                         hdr = s->code;
2325                 else if (text_is(sec, "code"))
2326                         code = s->code;
2327                 else if (text_is(sec, "grammar"))
2328                         gram = s->code;
2329                 else {
2330                         fprintf(stderr, "Unknown content section: %.*s\n",
2331                                 s->section.len, s->section.txt);
2332                         rv |= 2;
2333                 }
2334         }
2335
2336 ### Processing the input
2337
2338 As we need to append an extention to a filename and then open it for
2339 writing, and we need to do this twice, it helps to have a separate function.
2340
2341 ###### functions
2342
2343         static FILE *open_ext(char *base, char *ext)
2344         {
2345                 char *fn = malloc(strlen(base) + strlen(ext) + 1);
2346                 FILE *f;
2347                 strcat(strcpy(fn, base), ext);
2348                 f = fopen(fn, "w");
2349                 free(fn);
2350                 return f;
2351         }
2352
2353 If we can read the grammar, then we analyse and optionally report on it.  If
2354 the report finds conflicts we will exit with an error status.
2355
2356 ###### process input
2357         struct grammar *g = NULL;
2358         if (gram == NULL) {
2359                 fprintf(stderr, "No grammar section provided\n");
2360                 rv |= 2;
2361         } else {
2362                 g = grammar_read(gram);
2363                 if (!g) {
2364                         fprintf(stderr, "Failure to parse grammar\n");
2365                         rv |= 2;
2366                 }
2367         }
2368         if (g) {
2369                 grammar_analyse(g, type);
2370                 if (report)
2371                         if (grammar_report(g, type))
2372                                 rv |= 1;
2373         }
2374
2375 If a "headers" section is defined, we write it out and include a declaration
2376 for the `parse_XX` function so it can be used from separate code.
2377
2378         if (rv == 0 && hdr && outfile) {
2379                 FILE *f = open_ext(outfile, ".h");
2380                 if (f) {
2381                         code_node_print(f, hdr, infile);
2382                         fprintf(f, "void *parse_%s(struct code_node *code, struct token_config *config, FILE *trace);\n",
2383                                 name);
2384                         fclose(f);
2385                 } else {
2386                         fprintf(stderr, "Cannot create %s.h\n",
2387                                 outfile);
2388                         rv |= 4;
2389                 }
2390         }
2391
2392 And if all goes well and an output file was provided, we create the `.c`
2393 file with the code section (if any) and the parser tables and function.
2394
2395         if (rv == 0 && outfile) {
2396                 FILE *f = open_ext(outfile, ".c");
2397                 if (f) {
2398                         if (code)
2399                                 code_node_print(f, code, infile);
2400                         gen_parser(f, g, infile, name);
2401                         fclose(f);
2402                 } else {
2403                         fprintf(stderr, "Cannot create %s.c\n",
2404                                 outfile);
2405                         rv |= 4;
2406                 }
2407         }
2408
2409 And that about wraps it up.  We need to set the locale so that UTF-8 is
2410 recognised properly, and link with `libicuuc` as `libmdcode` requires that.
2411
2412 ###### File: parsergen.mk
2413         parsergen : parsergen.o libscanner.o libmdcode.o
2414                 $(CC) $(CFLAGS) -o parsergen parsergen.o libscanner.o libmdcode.o -licuuc
2415
2416 ###### includes
2417         #include <locale.h>
2418
2419 ###### main
2420
2421         int main(int argc, char *argv[])
2422         {
2423                 struct section *s;
2424                 int rv = 0;
2425
2426                 setlocale(LC_ALL,"");
2427
2428                 ## process arguments
2429                 ## load file
2430                 ## process input
2431
2432                 return rv;
2433         }
2434
2435 ## The SHIFT/REDUCE parser
2436
2437 Having analysed the grammar and generated all the tables, we only need the
2438 shift/reduce engine to bring it all together.
2439
2440 ### Goto table lookup
2441
2442 The parser generator has nicely provided us with goto tables sorted by
2443 symbol number.  We need a binary search function to find a symbol in the
2444 table.
2445
2446 ###### parser functions
2447
2448         static int search(const struct state *l, int sym)
2449         {
2450                 int lo = 0;
2451                 int hi = l->go_to_cnt;
2452
2453                 if (hi == 0)
2454                         return -1;
2455                 while (lo + 1 < hi) {
2456                         int mid = (lo + hi) / 2;
2457                         if (l->go_to[mid].sym <= sym)
2458                                 lo = mid;
2459                         else
2460                                 hi = mid;
2461                 }
2462                 if (l->go_to[lo].sym == sym)
2463                         return l->go_to[lo].state;
2464                 else
2465                         return -1;
2466         }
2467
2468 ### The state stack.
2469
2470 The core data structure for the parser is the stack.  This tracks all the
2471 symbols that have been recognised or partially recognised.
2472
2473 The stack usually won't grow very large - maybe a few tens of entries.  So
2474 we dynamically resize and array as required but never bother to shrink it
2475 down again.
2476
2477 We keep the stack as two separate allocations.  One, `asn_stack` stores the
2478 "abstract syntax nodes" which are created by each reduction.  When we call
2479 `do_reduce` we need to pass an array of the `asn`s of the body of the
2480 production, and by keeping a separate `asn` stack, we can just pass a
2481 pointer into this stack.
2482
2483 The other allocation stores all other stack fields of which there are six.
2484 The `state` is the most important one and guides the parsing process.  The
2485 `sym` is nearly unnecessary.  However when we want to free entries from the
2486 `asn_stack`, it helps to know what type they are so we can call the right
2487 freeing function.  The symbol leads us to the right free function through
2488 `do_free`.
2489
2490 The `indents` count tracks the line indents with-in the symbol or
2491 immediately follow it.  These are used to allow indent information to
2492 guide parsing and error recovery.
2493
2494 `since_newline` tracks how many stack frames since the last
2495 start-of-line (whether indented or not).  So if `since_newline` is
2496 zero, then this symbol is at the start of a line.  Similarly
2497 `since_indent` counts the number of states since an indent, it is zero
2498 precisely when `indents` is not zero.
2499
2500 `newline_permitted` keeps track of whether newlines should be ignored
2501 or not.
2502
2503 The stack is most properly seen as alternating states and symbols -
2504 states, like the 'DOT' in items, are between symbols.  Each frame in
2505 our stack holds a state and the symbol that was before it.  The
2506 bottom of stack holds the start state but no symbol, as nothing came
2507 before the beginning.
2508
2509 ###### parser functions
2510
2511         struct parser {
2512                 struct frame {
2513                         short state;
2514                         short newline_permitted;
2515
2516                         short sym;
2517                         short indents;
2518                         short since_newline;
2519                         short since_indent;
2520                 } *stack;
2521                 void **asn_stack;
2522                 int stack_size;
2523                 int tos;
2524         };
2525
2526 #### Shift and pop
2527
2528 Two operations are needed on the stack - shift (which is like push) and pop.
2529
2530 Shift applies not only to terminals but also to non-terminals.  When
2531 we reduce a production we will pop off entries corresponding to the
2532 body symbols, then push on an item for the head of the production.
2533 This last is exactly the same process as shifting in a terminal so we
2534 use the same function for both.  In both cases we provide the symbol,
2535 the number of indents the symbol contains (which will be zero for a
2536 terminal symbol) and a flag indicating the the symbol was at (or was
2537 reduced from a symbol which was at) the start of a line.  The state is
2538 deduced from the current top-of-stack state and the new symbol.
2539
2540 To simplify other code we arrange for `shift` to fail if there is no `goto`
2541 state for the symbol.  This is useful in basic parsing due to our design
2542 that we shift when we can, and reduce when we cannot.  So the `shift`
2543 function reports if it could.
2544
2545 `shift` is also used to push state zero onto the stack, so if the
2546 stack is empty, it always chooses zero as the next state.
2547
2548 So `shift` finds the next state.  If that succeeds it extends the
2549 allocations if needed and pushes all the information onto the stacks.
2550
2551 Newlines are permitted after a `starts_line` state until an internal
2552 indent.  If the new frame has neither a `starts_line` state nor an
2553 indent, newlines are permitted if the previous stack frame permitted
2554 them.
2555
2556 ###### parser functions
2557
2558         static int shift(struct parser *p,
2559                          short sym, short indents, short start_of_line,
2560                          void *asn,
2561                          const struct state states[])
2562         {
2563                 // Push an entry onto the stack
2564                 struct frame next = {0};
2565                 int newstate = p->tos
2566                         ? search(&states[p->stack[p->tos-1].state],
2567                                  sym)
2568                         : 0;
2569                 if (newstate < 0)
2570                         return 0;
2571                 if (p->tos >= p->stack_size) {
2572                         p->stack_size += 10;
2573                         p->stack = realloc(p->stack, p->stack_size
2574                                            * sizeof(p->stack[0]));
2575                         p->asn_stack = realloc(p->asn_stack, p->stack_size
2576                                            * sizeof(p->asn_stack[0]));
2577                 }
2578                 next.sym = sym;
2579                 next.indents = indents;
2580                 next.state = newstate;
2581                 if (states[newstate].starts_line)
2582                         next.newline_permitted = 1;
2583                 else if (indents)
2584                         next.newline_permitted = 0;
2585                 else if (p->tos)
2586                         next.newline_permitted =
2587                                 p->stack[p->tos-1].newline_permitted;
2588                 else
2589                         next.newline_permitted = 0;
2590
2591                 if (!start_of_line) {
2592                         if (p->tos)
2593                                 next.since_newline = p->stack[p->tos-1].since_newline + 1;
2594                         else
2595                                 next.since_newline = 1;
2596                 }
2597                 if (indents)
2598                         next.since_indent = 0;
2599                 else if (p->tos)
2600                         next.since_indent = p->stack[p->tos-1].since_indent + 1;
2601                 else
2602                         next.since_indent = 1;
2603
2604                 p->stack[p->tos] = next;
2605                 p->asn_stack[p->tos] = asn;
2606                 p->tos++;
2607                 return 1;
2608         }
2609
2610 `pop` primarily moves the top of stack (`tos`) back down the required
2611 amount and frees any `asn` entries that need to be freed.  It also
2612 collects a summary of the indents and line starts in the symbols that
2613 are being removed. It is called _after_ we reduce a production, just
2614 before we `shift` the nonterminal in.
2615
2616 ###### parser functions
2617
2618         static int pop(struct parser *p, int num,
2619                        short *start_of_line,
2620                        void(*do_free)(short sym, void *asn))
2621         {
2622                 int i;
2623                 short indents = 0;
2624                 int sol = 0;
2625
2626                 p->tos -= num;
2627                 for (i = 0; i < num; i++) {
2628                         sol |= !p->stack[p->tos+i].since_newline;
2629                         indents += p->stack[p->tos+i].indents;
2630                         do_free(p->stack[p->tos+i].sym,
2631                                 p->asn_stack[p->tos+i]);
2632                 }
2633                 if (start_of_line)
2634                         *start_of_line = sol;
2635                 return indents;
2636         }
2637
2638 ### Memory allocation
2639
2640 The `scanner` returns tokens in a local variable - we want them in allocated
2641 memory so they can live in the `asn_stack`.  Similarly the `asn` produced by
2642 a reduce is in a large buffer.  Both of these require some allocation and
2643 copying, hence `memdup` and `tokcopy`.
2644
2645 ###### parser includes
2646         #include <memory.h>
2647
2648 ###### parser functions
2649
2650         void *memdup(void *m, int len)
2651         {
2652                 void *ret;
2653                 if (len == 0)
2654                         return NULL;
2655                 ret = malloc(len);
2656                 memcpy(ret, m, len);
2657                 return ret;
2658         }
2659
2660         static struct token *tok_copy(struct token tk)
2661         {
2662                 struct token *new = malloc(sizeof(*new));
2663                 *new = tk;
2664                 return new;
2665         }
2666
2667 ### The heart of the parser.
2668
2669 Now we have the parser.  If we can shift we do, though newlines and
2670 reducing indenting may block that.  If not and we can reduce we do
2671 that.  If the production we reduced was production zero, then we have
2672 accepted the input and can finish.
2673
2674 We return whatever `asn` was returned by reducing production zero.
2675
2676 If we can neither shift nor reduce we have an error to handle.  We pop
2677 single entries off the stack until we can shift the `TK_error` symbol, then
2678 drop input tokens until we find one we can shift into the new error state.
2679
2680 When we find `TK_in` and `TK_out` tokens which report indents we need
2681 to handle them directly as the grammar cannot express what we want to
2682 do with them.
2683
2684 `TK_in` tokens are easy: we simply update indent count in the top stack frame to
2685 record how many indents there are following the previous token.
2686
2687 `TK_out` tokens must be canceled against an indent count
2688 within the stack.  If we can reduce some symbols that are all since
2689 the most recent indent, then we do that first.  If the minimum prefix
2690 of the current state then extends back before the most recent indent,
2691 that indent can be cancelled.  If the minimum prefix is shorter then
2692 the indent had ended prematurely and we must start error handling, which
2693 is still a work-in-progress.
2694
2695 `TK_newline` tokens are ignored unless the top stack frame records
2696 that they are permitted.  In that case they will not be considered for
2697 shifting if it is possible to reduce some symbols that are all since
2698 the most recent start of line.  This is how a newline forcibly
2699 terminates any line-like structure - we try to reduce down to at most
2700 one symbol for each line where newlines are allowed.
2701 A consequence of this is that a rule like
2702
2703 ###### Example: newlines - broken
2704
2705         Newlines ->
2706                 | NEWLINE Newlines
2707         IfStatement -> Newlines if ....
2708
2709 cannot work, as the NEWLINE will never be shifted as the empty string
2710 will be reduced first.  Optional sets of newlines need to be include
2711 in the thing that preceed:
2712
2713 ###### Example: newlines - works
2714
2715         If -> if
2716                 | NEWLINE If
2717         IfStatement -> If ....
2718
2719 Here the NEWLINE will be shifted because nothing can be reduced until
2720 the `if` is seen.
2721
2722 When, during error handling, we discard token read in, we want to keep
2723 discarding until we see one that is recognised.  If we had a full set
2724 of LR(1) grammar states, this will mean looking in the look-ahead set,
2725 but we don't keep a full look-ahead set.  We only record the subset
2726 that leads to SHIFT.  We can, however, deduce the look-ahead set but
2727 looking at the SHIFT subsets for all states that we can get to by
2728 reducing zero or more times.  So we need a little function which
2729 checks if a given token is in any of these look-ahead sets.
2730
2731 ###### parser includes
2732         #include "parser.h"
2733
2734 ###### parser_run
2735
2736         static int in_lookahead(struct token *tk, const struct state *states, int state)
2737         {
2738                 while (state >= 0) {
2739                         if (search(&states[state], tk->num) >= 0)
2740                                 return 1;
2741                         if (states[state].reduce_prod < 0)
2742                                 return 0;
2743                         state = search(&states[state], states[state].reduce_sym);
2744                 }
2745                 return 0;
2746         }
2747
2748         void *parser_run(struct token_state *tokens,
2749                          const struct state states[],
2750                          int (*do_reduce)(int, void**, struct token_config*, void*),
2751                          void (*do_free)(short, void*),
2752                          FILE *trace, const char *non_term[],
2753                          struct token_config *config)
2754         {
2755                 struct parser p = { 0 };
2756                 struct token *tk = NULL;
2757                 int accepted = 0;
2758                 void *ret = NULL;
2759
2760                 shift(&p, TK_eof, 0, 1, NULL, states);
2761                 while (!accepted) {
2762                         struct token *err_tk;
2763                         struct frame *tos = &p.stack[p.tos-1];
2764                         if (!tk)
2765                                 tk = tok_copy(token_next(tokens));
2766                         parser_trace(trace, &p,
2767                                      tk, states, non_term, config->known_count);
2768
2769                         if (tk->num == TK_in) {
2770                                 tos->indents += 1;
2771                                 tos->since_newline = 0;
2772                                 tos->since_indent = 0;
2773                                 if (!states[tos->state].starts_line)
2774                                         tos->newline_permitted = 0;
2775                                 free(tk);
2776                                 tk = NULL;
2777                                 parser_trace_action(trace, "Record");
2778                                 continue;
2779                         }
2780                         if (tk->num == TK_out) {
2781                                 if (states[tos->state].reduce_size >= 0 &&
2782                                     states[tos->state].reduce_size <= tos->since_indent)
2783                                         goto force_reduce;
2784                                 if (states[tos->state].min_prefix >= tos->since_indent) {
2785                                         // OK to cancel
2786                                         struct frame *in = tos - tos->since_indent;
2787                                         in->indents -= 1;
2788                                         if (in->indents == 0) {
2789                                                 /* Reassess since_indent and newline_permitted */
2790                                                 if (in > p.stack) {
2791                                                         in->since_indent = in[-1].since_indent + 1;
2792                                                         in->newline_permitted = in[-1].newline_permitted;
2793                                                 } else {
2794                                                         in->since_indent = 0;
2795                                                         in->newline_permitted = 0;
2796                                                 }
2797                                                 if (states[in->state].starts_line)
2798                                                         in->newline_permitted = 1;
2799                                                 while (in < tos) {
2800                                                         in += 1;
2801                                                         in->since_indent = in[-1].since_indent + 1;
2802                                                         if (states[in->state].starts_line)
2803                                                                 in->newline_permitted = 1;
2804                                                         else
2805                                                                 in->newline_permitted = in[-1].newline_permitted;
2806                                                 }
2807                                         }
2808                                         free(tk);
2809                                         tk = NULL;
2810                                         parser_trace_action(trace, "Cancel");
2811                                         continue;
2812                                 }
2813                                 // fall through to error handling as both SHIFT and REDUCE
2814                                 // will fail.
2815                         }
2816                         if (tk->num == TK_newline) {
2817                                 if (!tos->newline_permitted) {
2818                                         free(tk);
2819                                         tk = NULL;
2820                                         parser_trace_action(trace, "Discard");
2821                                         continue;
2822                                 }
2823                                 if (tos->since_newline > 1 &&
2824                                     states[tos->state].reduce_size >= 0 &&
2825                                     states[tos->state].reduce_size <= tos->since_newline)
2826                                         goto force_reduce;
2827                         }
2828                         if (shift(&p, tk->num, 0, tk->num == TK_newline, tk, states)) {
2829                                 tk = NULL;
2830                                 parser_trace_action(trace, "Shift");
2831                                 continue;
2832                         }
2833                 force_reduce:
2834                         if (states[tos->state].reduce_prod >= 0) {
2835                                 void **body;
2836                                 void *res;
2837                                 const struct state *nextstate = &states[tos->state];
2838                                 int prod = nextstate->reduce_prod;
2839                                 int size = nextstate->reduce_size;
2840                                 int bufsize;
2841                                 static char buf[16*1024];
2842                                 short indents, start_of_line;
2843
2844                                 body = p.asn_stack + (p.tos - size);
2845
2846                                 bufsize = do_reduce(prod, body, config, buf);
2847
2848                                 indents = pop(&p, size, &start_of_line,
2849                                               do_free);
2850                                 res = memdup(buf, bufsize);
2851                                 memset(buf, 0, bufsize);
2852                                 if (!shift(&p, nextstate->reduce_sym,
2853                                            indents, start_of_line,
2854                                            res, states)) {
2855                                         if (prod != 0) abort();
2856                                         accepted = 1;
2857                                         ret = res;
2858                                 }
2859                                 parser_trace_action(trace, "Reduce");
2860                                 continue;
2861                         }
2862                         /* Error. We walk up the stack until we
2863                          * find a state which will accept TK_error.
2864                          * We then shift in TK_error and see what state
2865                          * that takes us too.
2866                          * Then we discard input tokens until
2867                          * we find one that is acceptable.
2868                          */
2869                         parser_trace_action(trace, "ERROR");
2870                         short indents = 0, start_of_line;
2871
2872                         err_tk = tok_copy(*tk);
2873                         while (p.tos > 0 &&
2874                                shift(&p, TK_error, 0, 0,
2875                                      err_tk, states) == 0)
2876                                 // discard this state
2877                                 indents += pop(&p, 1, &start_of_line, do_free);
2878                         if (p.tos == 0) {
2879                                 free(err_tk);
2880                                 // no state accepted TK_error
2881                                 break;
2882                         }
2883                         tos = &p.stack[p.tos-1];
2884                         while (!in_lookahead(tk, states, tos->state) &&
2885                                tk->num != TK_eof) {
2886                                 free(tk);
2887                                 tk = tok_copy(token_next(tokens));
2888                                 if (tk->num == TK_in)
2889                                         indents += 1;
2890                                 if (tk->num == TK_out) {
2891                                         if (indents == 0)
2892                                                 break;
2893                                         indents -= 1;
2894                                         // FIXME update since_indent here
2895                                 }
2896                         }
2897                         tos->indents += indents;
2898                 }
2899                 free(tk);
2900                 pop(&p, p.tos, NULL, do_free);
2901                 free(p.asn_stack);
2902                 free(p.stack);
2903                 return ret;
2904         }
2905
2906 ###### exported functions
2907         void *parser_run(struct token_state *tokens,
2908                          const struct state states[],
2909                          int (*do_reduce)(int, void**, struct token_config*, void*),
2910                          void (*do_free)(short, void*),
2911                          FILE *trace, const char *non_term[],
2912                          struct token_config *config);
2913
2914 ### Tracing
2915
2916 Being able to visualize the parser in action can be invaluable when
2917 debugging the parser code, or trying to understand how the parse of a
2918 particular grammar progresses.  The stack contains all the important
2919 state, so just printing out the stack every time around the parse loop
2920 can make it possible to see exactly what is happening.
2921
2922 This doesn't explicitly show each SHIFT and REDUCE action.  However they
2923 are easily deduced from the change between consecutive lines, and the
2924 details of each state can be found by cross referencing the states list
2925 in the stack with the "report" that parsergen can generate.
2926
2927 For terminal symbols, we just dump the token.  For non-terminals we
2928 print the name of the symbol.  The look ahead token is reported at the
2929 end inside square brackets.
2930
2931 ###### parser functions
2932
2933         static char *reserved_words[] = {
2934                 [TK_error]        = "ERROR",
2935                 [TK_in]           = "IN",
2936                 [TK_out]          = "OUT",
2937                 [TK_newline]      = "NEWLINE",
2938                 [TK_eof]          = "$eof",
2939         };
2940         static void parser_trace_state(FILE *trace, struct frame *f, const struct state states[])
2941         {
2942                 fprintf(trace, "(%d", f->state);
2943                 if (states[f->state].starts_line)
2944                         fprintf(trace, "s");
2945                 if (f->newline_permitted)
2946                         fprintf(trace, "n%d", f->since_newline);
2947                 fprintf(trace, ") ");
2948         }
2949
2950         void parser_trace(FILE *trace, struct parser *p,
2951                           struct token *tk, const struct state states[],
2952                           const char *non_term[], int knowns)
2953         {
2954                 int i;
2955                 if (!trace)
2956                         return;
2957                 for (i = 0; i < p->tos; i++) {
2958                         struct frame *f = &p->stack[i];
2959                         if (i) {
2960                                 int sym = f->sym;
2961                                 if (sym < TK_reserved &&
2962                                     reserved_words[sym] != NULL)
2963                                         fputs(reserved_words[sym], trace);
2964                                 else if (sym < TK_reserved + knowns) {
2965                                         struct token *t = p->asn_stack[i];
2966                                         text_dump(trace, t->txt, 20);
2967                                 } else
2968                                         fputs(non_term[sym - TK_reserved - knowns],
2969                                               trace);
2970                                 if (f->indents)
2971                                         fprintf(trace, ".%d", f->indents);
2972                                 if (f->since_newline == 0)
2973                                         fputs("/", trace);
2974                                 fputs(" ", trace);
2975                         }
2976                         parser_trace_state(trace, f, states);
2977                 }
2978                 fprintf(trace, "[");
2979                 if (tk->num < TK_reserved &&
2980                     reserved_words[tk->num] != NULL)
2981                         fputs(reserved_words[tk->num], trace);
2982                 else
2983                         text_dump(trace, tk->txt, 20);
2984                 fputs("]", trace);
2985         }
2986
2987         void parser_trace_action(FILE *trace, char *action)
2988         {
2989                 if (trace)
2990                         fprintf(trace, " - %s\n", action);
2991         }
2992
2993 # A Worked Example
2994
2995 The obvious example for a parser is a calculator.
2996
2997 As `scanner` provides number parsing function using `libgmp` is it not much
2998 work to perform arbitrary rational number calculations.
2999
3000 This calculator takes one expression, or an equality test, per line.  The
3001 results are printed and if any equality test fails, the program exits with
3002 an error.
3003
3004 ###### File: parsergen.mk
3005         calc.c calc.h : parsergen parsergen.mdc
3006                 ./parsergen --tag calc -o calc parsergen.mdc
3007         calc : calc.o libparser.o libscanner.o libmdcode.o libnumber.o
3008                 $(CC) $(CFLAGS) -o calc calc.o libparser.o libscanner.o libmdcode.o libnumber.o -licuuc -lgmp
3009         calctest : calc
3010                 ./calc parsergen.mdc
3011         demos :: calctest
3012
3013 # calc: header
3014
3015         #include "number.h"
3016         // what do we use for a demo-grammar?  A calculator of course.
3017         struct number {
3018                 mpq_t val;
3019                 char tail[2];
3020                 int err;
3021         };
3022
3023 # calc: code
3024
3025         #include <stdlib.h>
3026         #include <unistd.h>
3027         #include <fcntl.h>
3028         #include <sys/mman.h>
3029         #include <stdio.h>
3030         #include <malloc.h>
3031         #include <gmp.h>
3032         #include <string.h>
3033         #include "mdcode.h"
3034         #include "scanner.h"
3035         #include "number.h"
3036         #include "parser.h"
3037
3038         #include "calc.h"
3039
3040         static void free_number(struct number *n)
3041         {
3042                 mpq_clear(n->val);
3043                 free(n);
3044         }
3045
3046         static int text_is(struct text t, char *s)
3047         {
3048                 return (strlen(s) == t.len &&
3049                         strncmp(s, t.txt, t.len) == 0);
3050         }
3051
3052         int main(int argc, char *argv[])
3053         {
3054                 int fd = open(argv[1], O_RDONLY);
3055                 int len = lseek(fd, 0, 2);
3056                 char *file = mmap(NULL, len, PROT_READ, MAP_SHARED, fd, 0);
3057                 struct section *table = code_extract(file, file+len, NULL);
3058                 struct section *s;
3059                 struct token_config config = {
3060                         .ignored = (1 << TK_line_comment)
3061                                  | (1 << TK_block_comment)
3062                                  | (1 << TK_in)
3063                                  | (1 << TK_out),
3064                         .number_chars = ".,_+-",
3065                         .word_start = "",
3066                         .word_cont = "",
3067                 };
3068                 for (s = table; s; s = s->next)
3069                         if (text_is(s->section, "example: input"))
3070                                 parse_calc(s->code, &config, argc > 2 ? stderr : NULL);
3071                 while (table) {
3072                         struct section *t = table->next;
3073                         code_free(table->code);
3074                         free(table);
3075                         table = t;
3076                 }
3077                 exit(0);
3078         }
3079
3080 # calc: grammar
3081
3082         $LEFT * /
3083         $LEFT + -
3084
3085         Session -> Session Line
3086                 | Line
3087
3088         Line -> Expression NEWLINE ${ gmp_printf("Answer = %Qd\n", $1.val);
3089                                         { mpf_t fl; mpf_init2(fl, 20); mpf_set_q(fl, $1.val);
3090                                         gmp_printf("  or as a decimal: %Fg\n", fl);
3091                                         mpf_clear(fl);
3092                                         }
3093                                      }$
3094                 | Expression = Expression NEWLINE ${
3095                         if (mpq_equal($1.val, $3.val))
3096                                 gmp_printf("Both equal %Qd\n", $1.val);
3097                         else {
3098                                 gmp_printf("NOT EQUAL: %Qd\n      != : %Qd\n",
3099                                         $1.val, $3.val);
3100                                 exit(1);
3101                         }
3102                 }$
3103                 | NEWLINE ${ printf("Blank line\n"); }$
3104                 | ERROR NEWLINE ${ printf("Skipped a bad line\n"); }$
3105
3106         $number
3107         Expression -> Expression + Expression ${ mpq_init($0.val); mpq_add($0.val, $1.val, $3.val); }$
3108                 | Expression - Expression ${ mpq_init($0.val); mpq_sub($0.val, $1.val, $3.val); }$
3109                 | Expression * Expression ${ mpq_init($0.val); mpq_mul($0.val, $1.val, $3.val); }$
3110                 | Expression / Expression ${ mpq_init($0.val); mpq_div($0.val, $1.val, $3.val); }$
3111                 | NUMBER ${ if (number_parse($0.val, $0.tail, $1.txt) == 0) mpq_init($0.val); }$
3112                 | ( Expression ) ${ mpq_init($0.val); mpq_set($0.val, $2.val); }$
3113
3114 # example: input
3115
3116         355/113
3117         3.1415926535 - 355/113
3118         2 + 4 * 5
3119         1 + 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9
3120         10 * 9 / 2
3121         1 * 1000 + 2 * 100 + 3 * 10 + 4 * 1
3122
3123         error