联网搜索问题

This commit is contained in:
Your Name 2023-04-20 22:30:10 +08:00
parent bff4a87914
commit 325406a650
2 changed files with 14 additions and 8 deletions

View File

@ -12,7 +12,7 @@ def validate_path():
sys.path.append(root_dir_assume)
validate_path() # validate path so you can run from base directory
from colorful import *
from toolbox import get_conf, ChatBotWithCookies
proxies, WEB_PORT, LLM_MODEL, CONCURRENT_COUNT, AUTHENTICATION, CHATBOT_HEIGHT, LAYOUT, API_KEY = \
get_conf('proxies', 'WEB_PORT', 'LLM_MODEL', 'CONCURRENT_COUNT', 'AUTHENTICATION', 'CHATBOT_HEIGHT', 'LAYOUT', 'API_KEY')
@ -81,9 +81,15 @@ def test_下载arxiv论文并翻译摘要():
def test_联网回答问题():
from crazy_functions.联网的ChatGPT import 连接网络回答问题
txt = "“我们称之为高效”是什么梗?"
for cookies, cb, hist, msg in 连接网络回答问题(txt, llm_kwargs, plugin_kwargs, chatbot, history, system_prompt, web_port):
print(cb)
# txt = "“我们称之为高效”是什么梗?" #
# txt = "为什么说枪毙P社玩家没有一个冤枉的" #
# txt = "谁是应急食品?" # '根据以上搜索结果可以得知,应急食品是“原神”游戏中的角色派蒙的外号。'
# txt = "道路千万条,安全第一条。后面两句是?" # '行车不规范,亲人两行泪。'
# txt = "特朗普为什么被捕了?" # 特朗普涉嫌向一名色情片女星付“封口费”,因此被刑事起诉,随后前往纽约市出庭受审。在不同的搜索结果中,可能会有不同的具体描述和表述方式。
# txt = "丁仪砸了水滴之后发生了什么?" # 丁仪用地质锤砸烂了水滴这个行为让三体智子和其他观众们感到震惊和不解。在第1份搜索结果中作者吐槽了一个脑洞——丁仪的破解方法是通过修炼、悟道和掌握一种新的“道”称为“丁仪化身宇宙之道可以轻易出现在宇宙的任何一个地方.............
txt = "What is in the canister?" # 根据搜索结果并没有找到与 Rainbow Six Siege 游戏中 Smoke 的 Canister 中装有何种物质相关的官方信息。
for cookies, cb, hist, msg in 连接网络回答问题(txt, llm_kwargs, plugin_kwargs, chatbot, history, system_prompt, web_port): print(cb)
for i, it in enumerate(cb): print亮蓝(it[0]); print亮黄(it[1])
# test_解析一个Python项目()
# test_Latex英文润色()

View File

@ -70,14 +70,14 @@ def 连接网络回答问题(txt, llm_kwargs, plugin_kwargs, chatbot, history, s
history = []
# ------------- < 第2步依次访问网页 > -------------
max_search_result = 5
max_search_result = 4 # 最多收纳多少个网页的结果
for index, url in enumerate(urls[:max_search_result]):
res = scrape_text(url['link'], proxies)
history.extend([f"{index}份搜索结果", res])
chatbot.append([f"{index}份搜索结果", res])
history.extend([f"{index}份搜索结果", res])
chatbot.append([f"{index}份搜索结果", res[:500]])
yield from update_ui(chatbot=chatbot, history=history) # 刷新界面 # 由于请求gpt需要一段时间我们先及时地做一次界面更新
# ------------- < 第3步综合 > -------------
# ------------- < 第3步ChatGPT综合 > -------------
i_say = f"从以上搜索结果中抽取信息,然后回答问题:{txt}"
i_say, history = input_clipping(inputs=i_say, history=history, max_token_limit=model_info[llm_kwargs['llm_model']]['max_token']//2)
gpt_say = yield from request_gpt_model_in_new_thread_with_ui_alive(