Se configuro la aplicacion para que utilice llama2:7b
This commit is contained in:
Binary file not shown.
Binary file not shown.
@@ -161,7 +161,7 @@ class LangChainTools:
|
||||
|
||||
# Elegimos el modelo de Ollama que utilizaremos
|
||||
|
||||
model: str = "gemma:2b"
|
||||
model: str = "llama2:7b"
|
||||
|
||||
llm = Ollama(
|
||||
model=model,
|
||||
@@ -265,7 +265,7 @@ class LangChainTools:
|
||||
# Pregunta: {question}
|
||||
# Respuesta en español:"""
|
||||
|
||||
# conversation.combine_docs_chain.llm_chain.prompt.template = template
|
||||
conversation.combine_docs_chain.llm_chain.prompt.template = template
|
||||
# conversation.question_generator.prompt.template = "Dado el siguiente diálogo y una pregunta de seguimiento, reformula la pregunta de seguimiento para que sea una pregunta independiente, en su idioma original.\n\nHistorial del chat:\n{chat_history}\nPregunta de seguimiento: {question}\nPregunta independiente:"
|
||||
|
||||
return conversation
|
||||
|
||||
Reference in New Issue
Block a user