1
Утилита лексического анализа. Чтение лексических параметров из JSON-файла. Проект SIMODO.
3
<имя утилиты> [<параметры>] <файл>
5
-h | --help - отображение подсказки по запуску программы
6
--use-char16-buffer - провести лексический анализ заданного файла с использованием строкового буфера
7
-l | --lex-param-json <файл> - JSON-файл определения лексических параметров
8
-n | --number_mask <маска> <система счисления> - добавить маску числа
9
test/source/token/Tokenizer-01.txt:0/0-2/2, token: "/*
10
проверка лексического анализатора
12
проверка лексического анализатора
14
test/source/token/Tokenizer-01.txt:3/0-3/1, token: "_", type: Punctuation, qualification: Keyword
15
test/source/token/Tokenizer-01.txt:3/3-3/5, token: "sd", type: Word
16
test/source/token/Tokenizer-01.txt:4/1-4/2, token: ",", type: Punctuation
17
test/source/token/Tokenizer-01.txt:4/5-4/8, token: "asd", type: Word
18
test/source/token/Tokenizer-01.txt:6/1-6/2, token: "{", type: Error, qualification: UnknownCharacterSet
19
test/source/token/Tokenizer-01.txt:6/2-6/6, token: "_ФУ_", type: Error, qualification: NationalCharacterUse
20
test/source/token/Tokenizer-01.txt:6/6-6/7, token: "}", type: Error, qualification: UnknownCharacterSet
21
test/source/token/Tokenizer-01.txt:6/9-6/12, token: "ФУ_", type: Punctuation, qualification: Keyword
22
test/source/token/Tokenizer-01.txt:6/12-6/13, token: ";", type: Punctuation
23
test/source/token/Tokenizer-01.txt:6/13-6/14, token: "a", type: Word
24
test/source/token/Tokenizer-01.txt:7/0-7/9, token: "// asdasd", lexeme: " asdasd", type: Comment
25
test/source/token/Tokenizer-01.txt:8/1-8/6, token: "w_d10", type: Word
26
test/source/token/Tokenizer-01.txt:8/7-8/8, token: "+", type: Punctuation
27
test/source/token/Tokenizer-01.txt:8/9-8/10, token: "0", type: Number, qualification: Integer
28
test/source/token/Tokenizer-01.txt:8/11-8/12, token: "-", type: Punctuation
29
test/source/token/Tokenizer-01.txt:8/13-8/15, token: "0.", type: Number, qualification: RealNumber
30
test/source/token/Tokenizer-01.txt:8/16-8/17, token: "/", type: Error, qualification: UnknownCharacterSet
31
test/source/token/Tokenizer-01.txt:8/18-8/21, token: "0.0", type: Number, qualification: RealNumber
32
test/source/token/Tokenizer-01.txt:8/22-8/23, token: "*", type: Error, qualification: UnknownCharacterSet
33
test/source/token/Tokenizer-01.txt:8/24-8/25, token: ".", type: Error, qualification: UnknownCharacterSet
34
test/source/token/Tokenizer-01.txt:8/25-8/26, token: "0", type: Number, qualification: Integer
35
test/source/token/Tokenizer-01.txt:9/1-9/5, token: "5.2e", type: Error, qualification: NotANumber
36
test/source/token/Tokenizer-01.txt:9/6-9/11, token: "5.3E+", type: Error, qualification: NotANumber
37
test/source/token/Tokenizer-01.txt:9/12-9/18, token: "4.2E-1", type: Number, qualification: RealNumber
38
test/source/token/Tokenizer-01.txt:10/1-10/19, token: "_Nebuchadnezzar_II", type: Punctuation, qualification: Keyword
39
test/source/token/Tokenizer-01.txt:12/1-12/8, token: ""asd'd"", lexeme: "asd'd", type: Annotation
40
test/source/token/Tokenizer-01.txt:14/2-15/7, token: ""asdasd
41
asdd"", lexeme: "asdasd
42
asdd", type: Annotation
43
test/source/token/Tokenizer-01.txt:17/1-17/16, token: ""asdas\"asdasd"", lexeme: "asdas"asdasd", type: Annotation
44
test/source/token/Tokenizer-01.txt:18/1-18/5, token: "'as'", lexeme: "as", type: Annotation
45
test/source/token/Tokenizer-01.txt:19/1-19/2, token: "a", type: Word
46
test/source/token/Tokenizer-01.txt:20/0-21/0, token: "/*
49
ИТОГО: токенов ..... 32
52
пунктуаций .. 7 (из них ключевых слов: 3)
53
слов ........ 5 (из них с перемешанными алфавитами: 0)
54
чисел ....... 5 (из них с ошибками: 0)
55
ошибок ...... 8 (из них с недопустимым алфавитом: 1, c перемешанными алфавитами: 0)
57
test/source/token/Tokenizer-01.txt:0/0-2/2, token: "/*
58
проверка лексического анализатора
60
проверка лексического анализатора
62
test/source/token/Tokenizer-01.txt:3/0-3/1, token: "_", type: Punctuation, qualification: Keyword
63
test/source/token/Tokenizer-01.txt:3/3-3/5, token: "sd", type: Word
64
test/source/token/Tokenizer-01.txt:4/1-4/2, token: ",", type: Punctuation
65
test/source/token/Tokenizer-01.txt:4/5-4/8, token: "asd", type: Word
66
test/source/token/Tokenizer-01.txt:6/1-6/2, token: "{", type: Error, qualification: UnknownCharacterSet
67
test/source/token/Tokenizer-01.txt:6/2-6/6, token: "_ФУ_", type: Error, qualification: NationalCharacterUse
68
test/source/token/Tokenizer-01.txt:6/6-6/7, token: "}", type: Error, qualification: UnknownCharacterSet
69
test/source/token/Tokenizer-01.txt:6/9-6/12, token: "ФУ_", type: Punctuation, qualification: Keyword
70
test/source/token/Tokenizer-01.txt:6/12-6/13, token: ";", type: Punctuation
71
test/source/token/Tokenizer-01.txt:6/13-6/14, token: "a", type: Word
72
test/source/token/Tokenizer-01.txt:7/0-7/9, token: "// asdasd", lexeme: " asdasd", type: Comment
73
test/source/token/Tokenizer-01.txt:8/1-8/6, token: "w_d10", type: Word
74
test/source/token/Tokenizer-01.txt:8/7-8/8, token: "+", type: Punctuation
75
test/source/token/Tokenizer-01.txt:8/9-8/10, token: "0", type: Number, qualification: Integer
76
test/source/token/Tokenizer-01.txt:8/11-8/12, token: "-", type: Punctuation
77
test/source/token/Tokenizer-01.txt:8/13-8/15, token: "0.", type: Number, qualification: RealNumber
78
test/source/token/Tokenizer-01.txt:8/16-8/17, token: "/", type: Error, qualification: UnknownCharacterSet
79
test/source/token/Tokenizer-01.txt:8/18-8/21, token: "0.0", type: Number, qualification: RealNumber
80
test/source/token/Tokenizer-01.txt:8/22-8/23, token: "*", type: Error, qualification: UnknownCharacterSet
81
test/source/token/Tokenizer-01.txt:8/24-8/25, token: ".", type: Error, qualification: UnknownCharacterSet
82
test/source/token/Tokenizer-01.txt:8/25-8/26, token: "0", type: Number, qualification: Integer
83
test/source/token/Tokenizer-01.txt:9/1-9/5, token: "5.2e", type: Error, qualification: NotANumber
84
test/source/token/Tokenizer-01.txt:9/6-9/11, token: "5.3E+", type: Error, qualification: NotANumber
85
test/source/token/Tokenizer-01.txt:9/12-9/18, token: "4.2E-1", type: Number, qualification: RealNumber
86
test/source/token/Tokenizer-01.txt:10/1-10/19, token: "_Nebuchadnezzar_II", type: Punctuation, qualification: Keyword
87
test/source/token/Tokenizer-01.txt:12/1-12/8, token: ""asd'd"", lexeme: "asd'd", type: Annotation
88
test/source/token/Tokenizer-01.txt:14/2-15/7, token: ""asdasd
89
asdd"", lexeme: "asdasd
90
asdd", type: Annotation
91
test/source/token/Tokenizer-01.txt:17/1-17/16, token: ""asdas\"asdasd"", lexeme: "asdas"asdasd", type: Annotation
92
test/source/token/Tokenizer-01.txt:18/1-18/5, token: "'as'", lexeme: "as", type: Annotation
93
test/source/token/Tokenizer-01.txt:19/1-19/2, token: "a", type: Word
94
test/source/token/Tokenizer-01.txt:20/0-21/0, token: "/*
97
ИТОГО: токенов ..... 32
100
пунктуаций .. 7 (из них ключевых слов: 3)
101
слов ........ 5 (из них с перемешанными алфавитами: 0)
102
чисел ....... 5 (из них с ошибками: 0)
103
ошибок ...... 8 (из них с недопустимым алфавитом: 1, c перемешанными алфавитами: 0)
105
ИТОГО: токенов ..... 0
108
пунктуаций .. 0 (из них ключевых слов: 0)
109
слов ........ 0 (из них с перемешанными алфавитами: 0)
110
чисел ....... 0 (из них с ошибками: 0)
111
ошибок ...... 0 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
113
ИТОГО: токенов ..... 0
116
пунктуаций .. 0 (из них ключевых слов: 0)
117
слов ........ 0 (из них с перемешанными алфавитами: 0)
118
чисел ....... 0 (из них с ошибками: 0)
119
ошибок ...... 0 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
121
test/source/token/Tokenizer-03.txt:0/0-0/2, token: "1.", type: Number, qualification: RealNumber
122
test/source/token/Tokenizer-03.txt:0/3-0/6, token: "1.0", type: Number, qualification: RealNumber
123
test/source/token/Tokenizer-03.txt:1/0-1/3, token: "1e3", type: Number, qualification: RealNumber
124
test/source/token/Tokenizer-03.txt:1/4-1/8, token: "1.e3", type: Number, qualification: RealNumber
125
test/source/token/Tokenizer-03.txt:1/9-1/14, token: "1.2e3", type: Number, qualification: RealNumber
126
test/source/token/Tokenizer-03.txt:2/0-2/3, token: "1E3", type: Number, qualification: RealNumber
127
test/source/token/Tokenizer-03.txt:2/4-2/8, token: "1.E3", type: Number, qualification: RealNumber
128
test/source/token/Tokenizer-03.txt:2/9-2/14, token: "1.2E3", type: Number, qualification: RealNumber
129
test/source/token/Tokenizer-03.txt:3/0-3/4, token: "1E-3", type: Number, qualification: RealNumber
130
test/source/token/Tokenizer-03.txt:3/5-3/10, token: "1.E-3", type: Number, qualification: RealNumber
131
test/source/token/Tokenizer-03.txt:3/11-3/17, token: "1.2E-3", type: Number, qualification: RealNumber
132
test/source/token/Tokenizer-03.txt:4/0-4/4, token: "1e-3", type: Number, qualification: RealNumber
133
test/source/token/Tokenizer-03.txt:4/5-4/10, token: "1.e-3", type: Number, qualification: RealNumber
134
test/source/token/Tokenizer-03.txt:4/11-4/17, token: "1.2e-3", type: Number, qualification: RealNumber
135
test/source/token/Tokenizer-03.txt:5/0-5/4, token: "1e+3", type: Number, qualification: RealNumber
136
test/source/token/Tokenizer-03.txt:5/5-5/10, token: "1.e+3", type: Number, qualification: RealNumber
137
test/source/token/Tokenizer-03.txt:5/11-5/17, token: "1.2e+3", type: Number, qualification: RealNumber
138
test/source/token/Tokenizer-03.txt:6/0-6/4, token: "1E+3", type: Number, qualification: RealNumber
139
test/source/token/Tokenizer-03.txt:6/5-6/10, token: "1.E+3", type: Number, qualification: RealNumber
140
test/source/token/Tokenizer-03.txt:6/11-6/17, token: "1.2E+3", type: Number, qualification: RealNumber
141
test/source/token/Tokenizer-03.txt:7/0-7/8, token: "0xa0B1c2", type: Number, qualification: Integer
142
test/source/token/Tokenizer-03.txt:7/8-7/9, token: "s", type: Word
143
test/source/token/Tokenizer-03.txt:8/0-8/1, token: "0", type: Number, qualification: Integer
144
test/source/token/Tokenizer-03.txt:8/1-8/3, token: "xt", type: Word
145
test/source/token/Tokenizer-03.txt:9/0-9/8, token: "0b101010", type: Number, qualification: Integer
146
test/source/token/Tokenizer-03.txt:9/8-9/9, token: "3", type: Number, qualification: Integer
147
ИТОГО: токенов ..... 26
150
пунктуаций .. 0 (из них ключевых слов: 0)
151
слов ........ 2 (из них с перемешанными алфавитами: 0)
152
чисел ....... 24 (из них с ошибками: 0)
153
ошибок ...... 0 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
155
test/source/token/Tokenizer-04.txt:0/0-0/1, token: "#", type: Error, qualification: UnknownCharacterSet
156
test/source/token/Tokenizer-04.txt:0/1-0/5, token: "e23f", type: Word
157
test/source/token/Tokenizer-04.txt:1/0-1/1, token: "#", type: Error, qualification: UnknownCharacterSet
158
test/source/token/Tokenizer-04.txt:1/1-1/9, token: "eeee1100", type: Word
159
test/source/token/Tokenizer-04.txt:2/0-2/7, token: "#aaee11", type: Number, qualification: Integer
160
ИТОГО: токенов ..... 5
163
пунктуаций .. 0 (из них ключевых слов: 0)
164
слов ........ 2 (из них с перемешанными алфавитами: 0)
165
чисел ....... 1 (из них с ошибками: 0)
166
ошибок ...... 2 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
168
test/source/token/Tokenizer-05.txt:0/0-0/1, token: "(", type: Error, qualification: UnknownCharacterSet
169
test/source/token/Tokenizer-05.txt:0/1-0/5, token: "23.0", type: Number, qualification: RealNumber
170
test/source/token/Tokenizer-05.txt:0/5-0/6, token: "-", type: Punctuation
171
test/source/token/Tokenizer-05.txt:0/6-0/8, token: "x2", type: Word
172
test/source/token/Tokenizer-05.txt:0/8-0/9, token: ")", type: Error, qualification: UnknownCharacterSet
173
ИТОГО: токенов ..... 5
176
пунктуаций .. 1 (из них ключевых слов: 0)
177
слов ........ 1 (из них с перемешанными алфавитами: 0)
178
чисел ....... 1 (из них с ошибками: 0)
179
ошибок ...... 2 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)