我想在本地使用 llama-index 与 ollama 和 llama3:8b 来索引 utf-8 json 文件。我没有GPU。我使用 uncharted 将文档转换为 json。现在,如果无法在没有 GPU 的情况下在本地使用 llama-index,我想使用拥抱脸部推理 API。但我不确定它是否免费。有人能建议一种方法吗?
这是我的Python代码:
从 llama_index.core 导入文档、SimpleDirectoryReader、VectorStoreIndex 从 llama_index.llms.ollama 导入 Ollama 导入 json 从 llama_index.core 导入设置 # 将 JSON 文档转换为 LlamaIndex Document 对象 open('data/UBER_2019.json', 'r',encoding='utf-8') 作为 f: json_doc = json.load(f) 文档 = [json_doc 中的文档的文档(text=str(doc))] # 使用本地 LLM 初始化 Ollama ollama_llm = Ollama(model="llama3:8b") 设置.llm = ollama_llm # 使用本地LLM创建索引 索引 = VectorStoreIndex.from_documents(documents)#, llm=ollama_llm)
但我不断收到没有 OPENAI 密钥的错误。我想使用 llama2 这样就不需要 OPENAI 密钥
谁能建议我做错了什么?我还可以使用 Huggingfaceinference API 免费对本地 json 文件进行索引吗?