I use llama_index
in Jupyter Notebooksding in Docker protocol. 在数据持久性方面,我需要从东道方到<条码>(Docker)集装箱架上<条码>。 基本上,我的问题是:从<代码>llama_index的用途和如何定位的“cache”夹的名称。
审议<代码>中的以下编码实例 甲型六氯环己烷
from llama_index import VectorStoreIndex
from llama_index import ServiceContext
from llama_index.llms import OpenAI
llm = OpenAI(model="gpt-3.5-turbo", temperature=0.1)
service_context = ServiceContext.from_defaults(
llm=llm, embed_model="local:BAAI/bge-small-en-v1.5"
)
该法典规定了以下产出:
config.json: 100%
743/743 [00:00<00:00, 32.2kB/s]
model.safetensors: 100%
133M/133M [00:32<00:00, 3.95MB/s]
tokenizer_config.json: 100%
366/366 [00:00<00:00, 31.0kB/s]
vocab.txt: 100%
232k/232k [00:00<00:00, 1.44MB/s]
tokenizer.json: 100%
711k/711k [00:00<00:00, 2.31MB/s]
special_tokens_map.json: 100%
125/125 [00:00<00:00, 12.9kB/s]
因此,serviceContext
成功地下载了上述档案。 但是,这些档案在我方拯救了在哪里? 我无法找到。 在Jupyter Notebook重新启用了所有损失,我不得不再次下载。
他们是否在爱护下使用HuggingFace? 页: 1 面对使用,没有“当地:BAAI/bge-small-en-v1.5”模式工艺品。