Se configuro la aplicacion para que utilice llama2:7b

This commit is contained in:
mongar 2024-05-04 23:11:55 -05:00
parent 6d3cafc579
commit 7172b478dd
9 changed files with 2 additions and 2 deletions

View File

@ -161,7 +161,7 @@ class LangChainTools:
# Elegimos el modelo de Ollama que utilizaremos # Elegimos el modelo de Ollama que utilizaremos
model: str = "gemma:2b" model: str = "llama2:7b"
llm = Ollama( llm = Ollama(
model=model, model=model,
@ -265,7 +265,7 @@ class LangChainTools:
# Pregunta: {question} # Pregunta: {question}
# Respuesta en español:""" # Respuesta en español:"""
# conversation.combine_docs_chain.llm_chain.prompt.template = template conversation.combine_docs_chain.llm_chain.prompt.template = template
# conversation.question_generator.prompt.template = "Dado el siguiente diálogo y una pregunta de seguimiento, reformula la pregunta de seguimiento para que sea una pregunta independiente, en su idioma original.\n\nHistorial del chat:\n{chat_history}\nPregunta de seguimiento: {question}\nPregunta independiente:" # conversation.question_generator.prompt.template = "Dado el siguiente diálogo y una pregunta de seguimiento, reformula la pregunta de seguimiento para que sea una pregunta independiente, en su idioma original.\n\nHistorial del chat:\n{chat_history}\nPregunta de seguimiento: {question}\nPregunta independiente:"
return conversation return conversation