sobes_2

0

Описание

Языки

  • Python61,1%
  • JavaScript29,6%
  • CSS6,8%
  • PowerShell1,7%
  • HTML0,7%
  • Dockerfile0,1%
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
5 месяцев назад
README.md

🎤 AI Interview Platform — VibeCall

Платформа для проведения AI-интервью с использованием SciBox LLM, распознавания речи, синтеза голоса и анализа кода.

🚀 Быстрый запуск

Подробная инструкция: см. SETUP.md

Краткая версия:

Откройте

http://localhost:3000
в браузере.


📋 Возможности

  • Генерация вопросов через SciBox LLM (с fallback на локальные модели)
  • Генерация вопросов через SciBox LLM (с fallback на локальные модели). Code Lab задачи генерируются через LLM и при отсутствии облака — deterministic fallback.
  • Распознавание речи (ASR) через Whisper
  • Синтез речи (TTS) через SciBox → локальные модели → pyttsx3
  • Анализ ответов через SciBox (с fallback на SentenceTransformer)
  • Анализ кода через SciBox с детальной обратной связью
  • Адаптивные фазы интервью: Теория → Алгоритмика → Code Lab
  • Видео-интерфейс в стиле Google Meet
  • Встроенная IDE для практических задач

🔧 SciBox интеграция

Платформа по умолчанию использует облачный LLM SciBox для генерации вопросов и оценки ответов.
Если ключ не задан или сервис недоступен, автоматически включаются локальные модели (RuGPT3 / SentenceTransformer).

Настройка

  1. API-ключ SciBox уже установлен по умолчанию для разработки. Для продакшена рекомендуется установить через переменную окружения:
  2. Перезапустите backend (
    uvicorn main:app --reload
    ).
  3. При запуске в консоли должно появиться:
    [SciBox] API ключ установлен (длина: 28)

Поведение при отказе

  • SciBox не отвечает → сервис логирует ошибку и переключается на локальные веса без падения API.
  • После восстановления SciBox никаких перезапусков не требуется: как только ключ доступен, запросы снова пойдут в облако.

📖 Документация

  • Полная инструкция по установке: SETUP.md
  • API документация:
    http://localhost:8000/docs
    (после запуска backend)

Docker (опционально)

Для демонстрации можно запустить backend в контейнере:

Логи и артефакты будут сохранены в

backend/storage
благодаря volume в
docker-compose.yml
.