loom

Форк
0
/
test-json-serialization-LexicalParametersLoader.out 
180 строк · 13.7 Кб
1
Утилита лексического анализа. Чтение лексических параметров из JSON-файла. Проект SIMODO.
2
Формат запуска:
3
    <имя утилиты> [<параметры>] <файл>
4
Параметры:
5
    -h | --help                  - отображение подсказки по запуску программы
6
         --use-char16-buffer     - провести лексический анализ заданного файла с использованием строкового буфера
7
    -l | --lex-param-json <файл> - JSON-файл определения лексических параметров
8
    -n | --number_mask <маска> <система счисления> - добавить маску числа
9
test/source/token/Tokenizer-01.txt:0/0-2/2, token: "/*
10
	проверка лексического анализатора
11
*/", lexeme: "
12
	проверка лексического анализатора
13
", type: Comment
14
test/source/token/Tokenizer-01.txt:3/0-3/1, token: "_", type: Punctuation, qualification: Keyword
15
test/source/token/Tokenizer-01.txt:3/3-3/5, token: "sd", type: Word
16
test/source/token/Tokenizer-01.txt:4/1-4/2, token: ",", type: Punctuation
17
test/source/token/Tokenizer-01.txt:4/5-4/8, token: "asd", type: Word
18
test/source/token/Tokenizer-01.txt:6/1-6/2, token: "{", type: Error, qualification: UnknownCharacterSet
19
test/source/token/Tokenizer-01.txt:6/2-6/6, token: "_ФУ_", type: Error, qualification: NationalCharacterUse
20
test/source/token/Tokenizer-01.txt:6/6-6/7, token: "}", type: Error, qualification: UnknownCharacterSet
21
test/source/token/Tokenizer-01.txt:6/9-6/12, token: "ФУ_", type: Punctuation, qualification: Keyword
22
test/source/token/Tokenizer-01.txt:6/12-6/13, token: ";", type: Punctuation
23
test/source/token/Tokenizer-01.txt:6/13-6/14, token: "a", type: Word
24
test/source/token/Tokenizer-01.txt:7/0-7/9, token: "// asdasd", lexeme: " asdasd", type: Comment
25
test/source/token/Tokenizer-01.txt:8/1-8/6, token: "w_d10", type: Word
26
test/source/token/Tokenizer-01.txt:8/7-8/8, token: "+", type: Punctuation
27
test/source/token/Tokenizer-01.txt:8/9-8/10, token: "0", type: Number, qualification: Integer
28
test/source/token/Tokenizer-01.txt:8/11-8/12, token: "-", type: Punctuation
29
test/source/token/Tokenizer-01.txt:8/13-8/15, token: "0.", type: Number, qualification: RealNumber
30
test/source/token/Tokenizer-01.txt:8/16-8/17, token: "/", type: Error, qualification: UnknownCharacterSet
31
test/source/token/Tokenizer-01.txt:8/18-8/21, token: "0.0", type: Number, qualification: RealNumber
32
test/source/token/Tokenizer-01.txt:8/22-8/23, token: "*", type: Error, qualification: UnknownCharacterSet
33
test/source/token/Tokenizer-01.txt:8/24-8/25, token: ".", type: Error, qualification: UnknownCharacterSet
34
test/source/token/Tokenizer-01.txt:8/25-8/26, token: "0", type: Number, qualification: Integer
35
test/source/token/Tokenizer-01.txt:9/1-9/5, token: "5.2e", type: Error, qualification: NotANumber
36
test/source/token/Tokenizer-01.txt:9/6-9/11, token: "5.3E+", type: Error, qualification: NotANumber
37
test/source/token/Tokenizer-01.txt:9/12-9/18, token: "4.2E-1", type: Number, qualification: RealNumber
38
test/source/token/Tokenizer-01.txt:10/1-10/19, token: "_Nebuchadnezzar_II", type: Punctuation, qualification: Keyword
39
test/source/token/Tokenizer-01.txt:12/1-12/8, token: ""asd'd"", lexeme: "asd'd", type: Annotation
40
test/source/token/Tokenizer-01.txt:14/2-15/7, token: ""asdasd
41
		asdd"", lexeme: "asdasd
42
		asdd", type: Annotation
43
test/source/token/Tokenizer-01.txt:17/1-17/16, token: ""asdas\"asdasd"", lexeme: "asdas"asdasd", type: Annotation
44
test/source/token/Tokenizer-01.txt:18/1-18/5, token: "'as'", lexeme: "as", type: Annotation
45
test/source/token/Tokenizer-01.txt:19/1-19/2, token: "a", type: Word
46
test/source/token/Tokenizer-01.txt:20/0-21/0, token: "/*
47
", lexeme: "
48
", type: Comment
49
ИТОГО: токенов ..... 32
50
       комментариев. 3
51
       аннотаций ... 4
52
       пунктуаций .. 7 (из них ключевых слов: 3)
53
       слов ........ 5 (из них с перемешанными алфавитами: 0)
54
       чисел ....... 5 (из них с ошибками: 0)
55
       ошибок ...... 8 (из них с недопустимым алфавитом: 1, c перемешанными алфавитами: 0)
56
       сбоев ....... 0
57
test/source/token/Tokenizer-01.txt:0/0-2/2, token: "/*
58
	проверка лексического анализатора
59
*/", lexeme: "
60
	проверка лексического анализатора
61
", type: Comment
62
test/source/token/Tokenizer-01.txt:3/0-3/1, token: "_", type: Punctuation, qualification: Keyword
63
test/source/token/Tokenizer-01.txt:3/3-3/5, token: "sd", type: Word
64
test/source/token/Tokenizer-01.txt:4/1-4/2, token: ",", type: Punctuation
65
test/source/token/Tokenizer-01.txt:4/5-4/8, token: "asd", type: Word
66
test/source/token/Tokenizer-01.txt:6/1-6/2, token: "{", type: Error, qualification: UnknownCharacterSet
67
test/source/token/Tokenizer-01.txt:6/2-6/6, token: "_ФУ_", type: Error, qualification: NationalCharacterUse
68
test/source/token/Tokenizer-01.txt:6/6-6/7, token: "}", type: Error, qualification: UnknownCharacterSet
69
test/source/token/Tokenizer-01.txt:6/9-6/12, token: "ФУ_", type: Punctuation, qualification: Keyword
70
test/source/token/Tokenizer-01.txt:6/12-6/13, token: ";", type: Punctuation
71
test/source/token/Tokenizer-01.txt:6/13-6/14, token: "a", type: Word
72
test/source/token/Tokenizer-01.txt:7/0-7/9, token: "// asdasd", lexeme: " asdasd", type: Comment
73
test/source/token/Tokenizer-01.txt:8/1-8/6, token: "w_d10", type: Word
74
test/source/token/Tokenizer-01.txt:8/7-8/8, token: "+", type: Punctuation
75
test/source/token/Tokenizer-01.txt:8/9-8/10, token: "0", type: Number, qualification: Integer
76
test/source/token/Tokenizer-01.txt:8/11-8/12, token: "-", type: Punctuation
77
test/source/token/Tokenizer-01.txt:8/13-8/15, token: "0.", type: Number, qualification: RealNumber
78
test/source/token/Tokenizer-01.txt:8/16-8/17, token: "/", type: Error, qualification: UnknownCharacterSet
79
test/source/token/Tokenizer-01.txt:8/18-8/21, token: "0.0", type: Number, qualification: RealNumber
80
test/source/token/Tokenizer-01.txt:8/22-8/23, token: "*", type: Error, qualification: UnknownCharacterSet
81
test/source/token/Tokenizer-01.txt:8/24-8/25, token: ".", type: Error, qualification: UnknownCharacterSet
82
test/source/token/Tokenizer-01.txt:8/25-8/26, token: "0", type: Number, qualification: Integer
83
test/source/token/Tokenizer-01.txt:9/1-9/5, token: "5.2e", type: Error, qualification: NotANumber
84
test/source/token/Tokenizer-01.txt:9/6-9/11, token: "5.3E+", type: Error, qualification: NotANumber
85
test/source/token/Tokenizer-01.txt:9/12-9/18, token: "4.2E-1", type: Number, qualification: RealNumber
86
test/source/token/Tokenizer-01.txt:10/1-10/19, token: "_Nebuchadnezzar_II", type: Punctuation, qualification: Keyword
87
test/source/token/Tokenizer-01.txt:12/1-12/8, token: ""asd'd"", lexeme: "asd'd", type: Annotation
88
test/source/token/Tokenizer-01.txt:14/2-15/7, token: ""asdasd
89
		asdd"", lexeme: "asdasd
90
		asdd", type: Annotation
91
test/source/token/Tokenizer-01.txt:17/1-17/16, token: ""asdas\"asdasd"", lexeme: "asdas"asdasd", type: Annotation
92
test/source/token/Tokenizer-01.txt:18/1-18/5, token: "'as'", lexeme: "as", type: Annotation
93
test/source/token/Tokenizer-01.txt:19/1-19/2, token: "a", type: Word
94
test/source/token/Tokenizer-01.txt:20/0-21/0, token: "/*
95
", lexeme: "
96
", type: Comment
97
ИТОГО: токенов ..... 32
98
       комментариев. 3
99
       аннотаций ... 4
100
       пунктуаций .. 7 (из них ключевых слов: 3)
101
       слов ........ 5 (из них с перемешанными алфавитами: 0)
102
       чисел ....... 5 (из них с ошибками: 0)
103
       ошибок ...... 8 (из них с недопустимым алфавитом: 1, c перемешанными алфавитами: 0)
104
       сбоев ....... 0
105
ИТОГО: токенов ..... 0
106
       комментариев. 0
107
       аннотаций ... 0
108
       пунктуаций .. 0 (из них ключевых слов: 0)
109
       слов ........ 0 (из них с перемешанными алфавитами: 0)
110
       чисел ....... 0 (из них с ошибками: 0)
111
       ошибок ...... 0 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
112
       сбоев ....... 0
113
ИТОГО: токенов ..... 0
114
       комментариев. 0
115
       аннотаций ... 0
116
       пунктуаций .. 0 (из них ключевых слов: 0)
117
       слов ........ 0 (из них с перемешанными алфавитами: 0)
118
       чисел ....... 0 (из них с ошибками: 0)
119
       ошибок ...... 0 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
120
       сбоев ....... 0
121
test/source/token/Tokenizer-03.txt:0/0-0/2, token: "1.", type: Number, qualification: RealNumber
122
test/source/token/Tokenizer-03.txt:0/3-0/6, token: "1.0", type: Number, qualification: RealNumber
123
test/source/token/Tokenizer-03.txt:1/0-1/3, token: "1e3", type: Number, qualification: RealNumber
124
test/source/token/Tokenizer-03.txt:1/4-1/8, token: "1.e3", type: Number, qualification: RealNumber
125
test/source/token/Tokenizer-03.txt:1/9-1/14, token: "1.2e3", type: Number, qualification: RealNumber
126
test/source/token/Tokenizer-03.txt:2/0-2/3, token: "1E3", type: Number, qualification: RealNumber
127
test/source/token/Tokenizer-03.txt:2/4-2/8, token: "1.E3", type: Number, qualification: RealNumber
128
test/source/token/Tokenizer-03.txt:2/9-2/14, token: "1.2E3", type: Number, qualification: RealNumber
129
test/source/token/Tokenizer-03.txt:3/0-3/4, token: "1E-3", type: Number, qualification: RealNumber
130
test/source/token/Tokenizer-03.txt:3/5-3/10, token: "1.E-3", type: Number, qualification: RealNumber
131
test/source/token/Tokenizer-03.txt:3/11-3/17, token: "1.2E-3", type: Number, qualification: RealNumber
132
test/source/token/Tokenizer-03.txt:4/0-4/4, token: "1e-3", type: Number, qualification: RealNumber
133
test/source/token/Tokenizer-03.txt:4/5-4/10, token: "1.e-3", type: Number, qualification: RealNumber
134
test/source/token/Tokenizer-03.txt:4/11-4/17, token: "1.2e-3", type: Number, qualification: RealNumber
135
test/source/token/Tokenizer-03.txt:5/0-5/4, token: "1e+3", type: Number, qualification: RealNumber
136
test/source/token/Tokenizer-03.txt:5/5-5/10, token: "1.e+3", type: Number, qualification: RealNumber
137
test/source/token/Tokenizer-03.txt:5/11-5/17, token: "1.2e+3", type: Number, qualification: RealNumber
138
test/source/token/Tokenizer-03.txt:6/0-6/4, token: "1E+3", type: Number, qualification: RealNumber
139
test/source/token/Tokenizer-03.txt:6/5-6/10, token: "1.E+3", type: Number, qualification: RealNumber
140
test/source/token/Tokenizer-03.txt:6/11-6/17, token: "1.2E+3", type: Number, qualification: RealNumber
141
test/source/token/Tokenizer-03.txt:7/0-7/8, token: "0xa0B1c2", type: Number, qualification: Integer
142
test/source/token/Tokenizer-03.txt:7/8-7/9, token: "s", type: Word
143
test/source/token/Tokenizer-03.txt:8/0-8/1, token: "0", type: Number, qualification: Integer
144
test/source/token/Tokenizer-03.txt:8/1-8/3, token: "xt", type: Word
145
test/source/token/Tokenizer-03.txt:9/0-9/8, token: "0b101010", type: Number, qualification: Integer
146
test/source/token/Tokenizer-03.txt:9/8-9/9, token: "3", type: Number, qualification: Integer
147
ИТОГО: токенов ..... 26
148
       комментариев. 0
149
       аннотаций ... 0
150
       пунктуаций .. 0 (из них ключевых слов: 0)
151
       слов ........ 2 (из них с перемешанными алфавитами: 0)
152
       чисел ....... 24 (из них с ошибками: 0)
153
       ошибок ...... 0 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
154
       сбоев ....... 0
155
test/source/token/Tokenizer-04.txt:0/0-0/1, token: "#", type: Error, qualification: UnknownCharacterSet
156
test/source/token/Tokenizer-04.txt:0/1-0/5, token: "e23f", type: Word
157
test/source/token/Tokenizer-04.txt:1/0-1/1, token: "#", type: Error, qualification: UnknownCharacterSet
158
test/source/token/Tokenizer-04.txt:1/1-1/9, token: "eeee1100", type: Word
159
test/source/token/Tokenizer-04.txt:2/0-2/7, token: "#aaee11", type: Number, qualification: Integer
160
ИТОГО: токенов ..... 5
161
       комментариев. 0
162
       аннотаций ... 0
163
       пунктуаций .. 0 (из них ключевых слов: 0)
164
       слов ........ 2 (из них с перемешанными алфавитами: 0)
165
       чисел ....... 1 (из них с ошибками: 0)
166
       ошибок ...... 2 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
167
       сбоев ....... 0
168
test/source/token/Tokenizer-05.txt:0/0-0/1, token: "(", type: Error, qualification: UnknownCharacterSet
169
test/source/token/Tokenizer-05.txt:0/1-0/5, token: "23.0", type: Number, qualification: RealNumber
170
test/source/token/Tokenizer-05.txt:0/5-0/6, token: "-", type: Punctuation
171
test/source/token/Tokenizer-05.txt:0/6-0/8, token: "x2", type: Word
172
test/source/token/Tokenizer-05.txt:0/8-0/9, token: ")", type: Error, qualification: UnknownCharacterSet
173
ИТОГО: токенов ..... 5
174
       комментариев. 0
175
       аннотаций ... 0
176
       пунктуаций .. 1 (из них ключевых слов: 0)
177
       слов ........ 1 (из них с перемешанными алфавитами: 0)
178
       чисел ....... 1 (из них с ошибками: 0)
179
       ошибок ...... 2 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
180
       сбоев ....... 0
181

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.