sobes_2
Описание
Языки
- Python61,1%
- JavaScript29,6%
- CSS6,8%
- PowerShell1,7%
- HTML0,7%
- Dockerfile0,1%
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
README.md
🎤 AI Interview Platform — VibeCall
Платформа для проведения AI-интервью с использованием SciBox LLM, распознавания речи, синтеза голоса и анализа кода.
🚀 Быстрый запуск
Подробная инструкция: см. SETUP.md
Краткая версия:
Откройте в браузере.http://localhost:3000
📋 Возможности
- ✅ Генерация вопросов через SciBox LLM (с fallback на локальные модели)
- ✅ Генерация вопросов через SciBox LLM (с fallback на локальные модели). Code Lab задачи генерируются через LLM и при отсутствии облака — deterministic fallback.
- ✅ Распознавание речи (ASR) через Whisper
- ✅ Синтез речи (TTS) через SciBox → локальные модели → pyttsx3
- ✅ Анализ ответов через SciBox (с fallback на SentenceTransformer)
- ✅ Анализ кода через SciBox с детальной обратной связью
- ✅ Адаптивные фазы интервью: Теория → Алгоритмика → Code Lab
- ✅ Видео-интерфейс в стиле Google Meet
- ✅ Встроенная IDE для практических задач
🔧 SciBox интеграция
Платформа по умолчанию использует облачный LLM SciBox для генерации вопросов и оценки ответов.
Если ключ не задан или сервис недоступен, автоматически включаются локальные модели (RuGPT3 / SentenceTransformer).
Настройка
- API-ключ SciBox уже установлен по умолчанию для разработки. Для продакшена рекомендуется установить через переменную окружения:
- Перезапустите backend (
).uvicorn main:app --reload - При запуске в консоли должно появиться: [SciBox] API ключ установлен (длина: 28)
Поведение при отказе
- SciBox не отвечает → сервис логирует ошибку и переключается на локальные веса без падения API.
- После восстановления SciBox никаких перезапусков не требуется: как только ключ доступен, запросы снова пойдут в облако.
📖 Документация
- Полная инструкция по установке: SETUP.md
- API документация:
(после запуска backend)http://localhost:8000/docs
Docker (опционально)
Для демонстрации можно запустить backend в контейнере:
Логи и артефакты будут сохранены в благодаря volume в backend/storage.docker-compose.yml