dream

Форк
0

..
/
IntentCatcherTransformers 
год назад
README.md

Intent Catcher based on Transformers

Intent Catcher Annotator allows to adapt the dialog system to particular tasks. The annotator detects intents of the user that are addressed by the DFF Intent Responder Skill.

English version was trained on intent_phrases.json dataset using DeepPavlov library via command:

python -m deeppavlov train intents_model_dp_config.json

It consumes 3.5Gb GPU RAM during fine-tuning. Classification results after 5 epochs are the following:

{"train": {"eval_examples_count": 209297, "metrics": {"accuracy": 0.9997, "f1_weighted": 1.0, "f1_macro": 0.9999, "roc_auc": 1.0}, "time_spent": "0:03:46"}}
{"valid": {"eval_examples_count": 52325, "metrics": {"accuracy": 0.9995, "f1_weighted": 0.9999, "f1_macro": 0.9999, "roc_auc": 1.0}, "time_spent": "0:00:57"}}

Russian Intent Catcher is also available. Conversational Russian BERT-base version after 5 epochs achieves the following results:

{"train": {"eval_examples_count": 16315, "metrics": {"accuracy": 1.0, "f1_weighted": 1.0, "f1_macro": 1.0, "roc_auc": 1.0}, "time_spent": "0:00:30"}}
{"valid": {"eval_examples_count": 4079, "metrics": {"accuracy": 0.9998, "f1_weighted": 0.9998, "f1_macro": 0.989, "roc_auc": 1.0}, "time_spent": "0:00:08"}}

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.