Se configuro la aplicacion para que utilice llama2:7b
This commit is contained in:
parent
6d3cafc579
commit
7172b478dd
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
Binary file not shown.
@ -161,7 +161,7 @@ class LangChainTools:
|
|||||||
|
|
||||||
# Elegimos el modelo de Ollama que utilizaremos
|
# Elegimos el modelo de Ollama que utilizaremos
|
||||||
|
|
||||||
model: str = "gemma:2b"
|
model: str = "llama2:7b"
|
||||||
|
|
||||||
llm = Ollama(
|
llm = Ollama(
|
||||||
model=model,
|
model=model,
|
||||||
@ -265,7 +265,7 @@ class LangChainTools:
|
|||||||
# Pregunta: {question}
|
# Pregunta: {question}
|
||||||
# Respuesta en español:"""
|
# Respuesta en español:"""
|
||||||
|
|
||||||
# conversation.combine_docs_chain.llm_chain.prompt.template = template
|
conversation.combine_docs_chain.llm_chain.prompt.template = template
|
||||||
# conversation.question_generator.prompt.template = "Dado el siguiente diálogo y una pregunta de seguimiento, reformula la pregunta de seguimiento para que sea una pregunta independiente, en su idioma original.\n\nHistorial del chat:\n{chat_history}\nPregunta de seguimiento: {question}\nPregunta independiente:"
|
# conversation.question_generator.prompt.template = "Dado el siguiente diálogo y una pregunta de seguimiento, reformula la pregunta de seguimiento para que sea una pregunta independiente, en su idioma original.\n\nHistorial del chat:\n{chat_history}\nPregunta de seguimiento: {question}\nPregunta independiente:"
|
||||||
|
|
||||||
return conversation
|
return conversation
|
||||||
|
Loading…
Reference in New Issue
Block a user