llama-index

Форк
0
24 строки · 744.0 Байт
1
"""Network Query Engine.
2

3
Make sure the app in `contributor.py` is running before trying to run this
4
script. Run `python contributor.py`.
5
"""
6

7
import asyncio
8
from llama_index.llms.openai import OpenAI
9
from llama_index.networks.contributor import ContributorClient
10
from llama_index.networks.query_engine import NetworkQueryEngine
11

12
client = ContributorClient.from_config_file(env_file=".env.contributor.client")
13

14
# build NetworkRAG
15
llm = OpenAI()
16
network_query_engine = NetworkQueryEngine.from_args(contributors=[client], llm=llm)
17

18
if __name__ == "__main__":
19
    sync_res = network_query_engine.query("Who is paul")
20
    print(sync_res)
21
    print("\n")
22

23
    async_res = asyncio.run(network_query_engine.aquery("Who is paul"))
24
    print(async_res)
25

Использование cookies

Мы используем файлы cookie в соответствии с Политикой конфиденциальности и Политикой использования cookies.

Нажимая кнопку «Принимаю», Вы даете АО «СберТех» согласие на обработку Ваших персональных данных в целях совершенствования нашего веб-сайта и Сервиса GitVerse, а также повышения удобства их использования.

Запретить использование cookies Вы можете самостоятельно в настройках Вашего браузера.