loom

Форк
0
/
test-token.out 
172 строки · 13.1 Кб
1
Утилита лексического анализа. Проект SIMODO.
2
Формат запуска:
3
    <имя утилиты> [<параметры>] <файл>
4
Параметры:
5
    -h | --help                  - отображение подсказки по запуску программы
6
         --use-char16-buffer     - провести лексический анализ заданного файла с использованием строкового буфера
7
    -n | --number_mask <маска> <система счисления> - добавить маску числа
8
test/source/token/Tokenizer-01.txt:0/0-2/2, token: "/*
9
	проверка лексического анализатора
10
*/", lexeme: "
11
	проверка лексического анализатора
12
", type: Comment
13
test/source/token/Tokenizer-01.txt:3/0-3/1, token: "_", type: Punctuation, qualification: Keyword
14
test/source/token/Tokenizer-01.txt:3/3-3/5, token: "sd", type: Word
15
test/source/token/Tokenizer-01.txt:4/1-4/2, token: ",", type: Punctuation
16
test/source/token/Tokenizer-01.txt:4/5-4/8, token: "asd", type: Word
17
test/source/token/Tokenizer-01.txt:6/1-6/2, token: "{", type: Error, qualification: UnknownCharacterSet
18
test/source/token/Tokenizer-01.txt:6/2-6/6, token: "_ФУ_", type: Error, qualification: NationalCharacterUse
19
test/source/token/Tokenizer-01.txt:6/6-6/7, token: "}", type: Error, qualification: UnknownCharacterSet
20
test/source/token/Tokenizer-01.txt:6/9-6/12, token: "ФУ_", type: Punctuation, qualification: Keyword
21
test/source/token/Tokenizer-01.txt:6/12-6/13, token: ";", type: Punctuation
22
test/source/token/Tokenizer-01.txt:6/13-6/14, token: "a", type: Word
23
test/source/token/Tokenizer-01.txt:7/0-7/9, token: "// asdasd", lexeme: " asdasd", type: Comment
24
test/source/token/Tokenizer-01.txt:8/1-8/6, token: "w_d10", type: Word
25
test/source/token/Tokenizer-01.txt:8/7-8/8, token: "+", type: Punctuation
26
test/source/token/Tokenizer-01.txt:8/9-8/10, token: "0", type: Number, qualification: Integer
27
test/source/token/Tokenizer-01.txt:8/11-8/12, token: "-", type: Punctuation
28
test/source/token/Tokenizer-01.txt:8/13-8/15, token: "0.", type: Number, qualification: RealNumber
29
test/source/token/Tokenizer-01.txt:8/16-8/17, token: "/", type: Error, qualification: UnknownCharacterSet
30
test/source/token/Tokenizer-01.txt:8/18-8/21, token: "0.0", type: Number, qualification: RealNumber
31
test/source/token/Tokenizer-01.txt:8/22-8/23, token: "*", type: Error, qualification: UnknownCharacterSet
32
test/source/token/Tokenizer-01.txt:8/24-8/25, token: ".", type: Error, qualification: UnknownCharacterSet
33
test/source/token/Tokenizer-01.txt:8/25-8/26, token: "0", type: Number, qualification: Integer
34
test/source/token/Tokenizer-01.txt:9/1-9/5, token: "5.2e", type: Error, qualification: NotANumber
35
test/source/token/Tokenizer-01.txt:9/6-9/11, token: "5.3E+", type: Error, qualification: NotANumber
36
test/source/token/Tokenizer-01.txt:9/12-9/18, token: "4.2E-1", type: Number, qualification: RealNumber
37
test/source/token/Tokenizer-01.txt:10/1-10/19, token: "_Nebuchadnezzar_II", type: Punctuation, qualification: Keyword
38
test/source/token/Tokenizer-01.txt:12/1-12/8, token: ""asd'd"", lexeme: "asd'd", type: Annotation
39
test/source/token/Tokenizer-01.txt:14/2-15/7, token: ""asdasd
40
		asdd"", lexeme: "asdasd
41
		asdd", type: Annotation
42
test/source/token/Tokenizer-01.txt:17/1-17/16, token: ""asdas\"asdasd"", lexeme: "asdas"asdasd", type: Annotation
43
test/source/token/Tokenizer-01.txt:18/1-18/5, token: "'as'", lexeme: "as", type: Annotation
44
test/source/token/Tokenizer-01.txt:19/1-19/2, token: "a", type: Word
45
test/source/token/Tokenizer-01.txt:20/0-21/0, token: "/*
46
", lexeme: "
47
", type: Comment
48
ИТОГО: токенов ..... 32
49
       комментариев. 3
50
       аннотаций ... 4
51
       пунктуаций .. 7 (из них ключевых слов: 3)
52
       слов ........ 5 (из них с перемешанными алфавитами: 0)
53
       чисел ....... 5 (из них с ошибками: 0)
54
       ошибок ...... 8 (из них с недопустимым алфавитом: 1, c перемешанными алфавитами: 0)
55
       сбоев ....... 0
56
test/source/token/Tokenizer-01.txt:0/0-2/2, token: "/*
57
	проверка лексического анализатора
58
*/", lexeme: "
59
	проверка лексического анализатора
60
", type: Comment
61
test/source/token/Tokenizer-01.txt:3/0-3/1, token: "_", type: Punctuation, qualification: Keyword
62
test/source/token/Tokenizer-01.txt:3/3-3/5, token: "sd", type: Word
63
test/source/token/Tokenizer-01.txt:4/1-4/2, token: ",", type: Punctuation
64
test/source/token/Tokenizer-01.txt:4/5-4/8, token: "asd", type: Word
65
test/source/token/Tokenizer-01.txt:6/1-6/2, token: "{", type: Error, qualification: UnknownCharacterSet
66
test/source/token/Tokenizer-01.txt:6/2-6/6, token: "_ФУ_", type: Error, qualification: NationalCharacterUse
67
test/source/token/Tokenizer-01.txt:6/6-6/7, token: "}", type: Error, qualification: UnknownCharacterSet
68
test/source/token/Tokenizer-01.txt:6/9-6/12, token: "ФУ_", type: Punctuation, qualification: Keyword
69
test/source/token/Tokenizer-01.txt:6/12-6/13, token: ";", type: Punctuation
70
test/source/token/Tokenizer-01.txt:6/13-6/14, token: "a", type: Word
71
test/source/token/Tokenizer-01.txt:7/0-7/9, token: "// asdasd", lexeme: " asdasd", type: Comment
72
test/source/token/Tokenizer-01.txt:8/1-8/6, token: "w_d10", type: Word
73
test/source/token/Tokenizer-01.txt:8/7-8/8, token: "+", type: Punctuation
74
test/source/token/Tokenizer-01.txt:8/9-8/10, token: "0", type: Number, qualification: Integer
75
test/source/token/Tokenizer-01.txt:8/11-8/12, token: "-", type: Punctuation
76
test/source/token/Tokenizer-01.txt:8/13-8/15, token: "0.", type: Number, qualification: RealNumber
77
test/source/token/Tokenizer-01.txt:8/16-8/17, token: "/", type: Error, qualification: UnknownCharacterSet
78
test/source/token/Tokenizer-01.txt:8/18-8/21, token: "0.0", type: Number, qualification: RealNumber
79
test/source/token/Tokenizer-01.txt:8/22-8/23, token: "*", type: Error, qualification: UnknownCharacterSet
80
test/source/token/Tokenizer-01.txt:8/24-8/25, token: ".", type: Error, qualification: UnknownCharacterSet
81
test/source/token/Tokenizer-01.txt:8/25-8/26, token: "0", type: Number, qualification: Integer
82
test/source/token/Tokenizer-01.txt:9/1-9/5, token: "5.2e", type: Error, qualification: NotANumber
83
test/source/token/Tokenizer-01.txt:9/6-9/11, token: "5.3E+", type: Error, qualification: NotANumber
84
test/source/token/Tokenizer-01.txt:9/12-9/18, token: "4.2E-1", type: Number, qualification: RealNumber
85
test/source/token/Tokenizer-01.txt:10/1-10/19, token: "_Nebuchadnezzar_II", type: Punctuation, qualification: Keyword
86
test/source/token/Tokenizer-01.txt:12/1-12/8, token: ""asd'd"", lexeme: "asd'd", type: Annotation
87
test/source/token/Tokenizer-01.txt:14/2-15/7, token: ""asdasd
88
		asdd"", lexeme: "asdasd
89
		asdd", type: Annotation
90
test/source/token/Tokenizer-01.txt:17/1-17/16, token: ""asdas\"asdasd"", lexeme: "asdas"asdasd", type: Annotation
91
test/source/token/Tokenizer-01.txt:18/1-18/5, token: "'as'", lexeme: "as", type: Annotation
92
test/source/token/Tokenizer-01.txt:19/1-19/2, token: "a", type: Word
93
test/source/token/Tokenizer-01.txt:20/0-21/0, token: "/*
94
", lexeme: "
95
", type: Comment
96
ИТОГО: токенов ..... 32
97
       комментариев. 3
98
       аннотаций ... 4
99
       пунктуаций .. 7 (из них ключевых слов: 3)
100
       слов ........ 5 (из них с перемешанными алфавитами: 0)
101
       чисел ....... 5 (из них с ошибками: 0)
102
       ошибок ...... 8 (из них с недопустимым алфавитом: 1, c перемешанными алфавитами: 0)
103
       сбоев ....... 0
104
Ошибка при открытии файла 'test/source/test/Tokenizer-02.txt'
105
ИТОГО: токенов ..... 0
106
       комментариев. 0
107
       аннотаций ... 0
108
       пунктуаций .. 0 (из них ключевых слов: 0)
109
       слов ........ 0 (из них с перемешанными алфавитами: 0)
110
       чисел ....... 0 (из них с ошибками: 0)
111
       ошибок ...... 0 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
112
       сбоев ....... 0
113
test/source/token/Tokenizer-03.txt:0/0-0/2, token: "1.", type: Number, qualification: RealNumber
114
test/source/token/Tokenizer-03.txt:0/3-0/6, token: "1.0", type: Number, qualification: RealNumber
115
test/source/token/Tokenizer-03.txt:1/0-1/3, token: "1e3", type: Number, qualification: RealNumber
116
test/source/token/Tokenizer-03.txt:1/4-1/8, token: "1.e3", type: Number, qualification: RealNumber
117
test/source/token/Tokenizer-03.txt:1/9-1/14, token: "1.2e3", type: Number, qualification: RealNumber
118
test/source/token/Tokenizer-03.txt:2/0-2/3, token: "1E3", type: Number, qualification: RealNumber
119
test/source/token/Tokenizer-03.txt:2/4-2/8, token: "1.E3", type: Number, qualification: RealNumber
120
test/source/token/Tokenizer-03.txt:2/9-2/14, token: "1.2E3", type: Number, qualification: RealNumber
121
test/source/token/Tokenizer-03.txt:3/0-3/4, token: "1E-3", type: Number, qualification: RealNumber
122
test/source/token/Tokenizer-03.txt:3/5-3/10, token: "1.E-3", type: Number, qualification: RealNumber
123
test/source/token/Tokenizer-03.txt:3/11-3/17, token: "1.2E-3", type: Number, qualification: RealNumber
124
test/source/token/Tokenizer-03.txt:4/0-4/4, token: "1e-3", type: Number, qualification: RealNumber
125
test/source/token/Tokenizer-03.txt:4/5-4/10, token: "1.e-3", type: Number, qualification: RealNumber
126
test/source/token/Tokenizer-03.txt:4/11-4/17, token: "1.2e-3", type: Number, qualification: RealNumber
127
test/source/token/Tokenizer-03.txt:5/0-5/4, token: "1e+3", type: Number, qualification: RealNumber
128
test/source/token/Tokenizer-03.txt:5/5-5/10, token: "1.e+3", type: Number, qualification: RealNumber
129
test/source/token/Tokenizer-03.txt:5/11-5/17, token: "1.2e+3", type: Number, qualification: RealNumber
130
test/source/token/Tokenizer-03.txt:6/0-6/4, token: "1E+3", type: Number, qualification: RealNumber
131
test/source/token/Tokenizer-03.txt:6/5-6/10, token: "1.E+3", type: Number, qualification: RealNumber
132
test/source/token/Tokenizer-03.txt:6/11-6/17, token: "1.2E+3", type: Number, qualification: RealNumber
133
test/source/token/Tokenizer-03.txt:7/0-7/8, token: "0xa0B1c2", type: Number, qualification: Integer
134
test/source/token/Tokenizer-03.txt:7/8-7/9, token: "s", type: Word
135
test/source/token/Tokenizer-03.txt:8/0-8/1, token: "0", type: Number, qualification: Integer
136
test/source/token/Tokenizer-03.txt:8/1-8/3, token: "xt", type: Word
137
test/source/token/Tokenizer-03.txt:9/0-9/8, token: "0b101010", type: Number, qualification: Integer
138
test/source/token/Tokenizer-03.txt:9/8-9/9, token: "3", type: Number, qualification: Integer
139
ИТОГО: токенов ..... 26
140
       комментариев. 0
141
       аннотаций ... 0
142
       пунктуаций .. 0 (из них ключевых слов: 0)
143
       слов ........ 2 (из них с перемешанными алфавитами: 0)
144
       чисел ....... 24 (из них с ошибками: 0)
145
       ошибок ...... 0 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
146
       сбоев ....... 0
147
test/source/token/Tokenizer-04.txt:0/0-0/1, token: "#", type: Error, qualification: UnknownCharacterSet
148
test/source/token/Tokenizer-04.txt:0/1-0/5, token: "e23f", type: Word
149
test/source/token/Tokenizer-04.txt:1/0-1/1, token: "#", type: Error, qualification: UnknownCharacterSet
150
test/source/token/Tokenizer-04.txt:1/1-1/9, token: "eeee1100", type: Word
151
test/source/token/Tokenizer-04.txt:2/0-2/7, token: "#aaee11", type: Number, qualification: Integer
152
ИТОГО: токенов ..... 5
153
       комментариев. 0
154
       аннотаций ... 0
155
       пунктуаций .. 0 (из них ключевых слов: 0)
156
       слов ........ 2 (из них с перемешанными алфавитами: 0)
157
       чисел ....... 1 (из них с ошибками: 0)
158
       ошибок ...... 2 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
159
       сбоев ....... 0
160
test/source/token/Tokenizer-05.txt:0/0-0/1, token: "(", type: Error, qualification: UnknownCharacterSet
161
test/source/token/Tokenizer-05.txt:0/1-0/5, token: "23.0", type: Number, qualification: RealNumber
162
test/source/token/Tokenizer-05.txt:0/5-0/6, token: "-", type: Punctuation
163
test/source/token/Tokenizer-05.txt:0/6-0/8, token: "x2", type: Word
164
test/source/token/Tokenizer-05.txt:0/8-0/9, token: ")", type: Error, qualification: UnknownCharacterSet
165
ИТОГО: токенов ..... 5
166
       комментариев. 0
167
       аннотаций ... 0
168
       пунктуаций .. 1 (из них ключевых слов: 0)
169
       слов ........ 1 (из них с перемешанными алфавитами: 0)
170
       чисел ....... 1 (из них с ошибками: 0)
171
       ошибок ...... 2 (из них с недопустимым алфавитом: 0, c перемешанными алфавитами: 0)
172
       сбоев ....... 0
173

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.