in appdev_with_generative_ai/src/genai-app/main.py [0:0]
def call_Palm(context:str, question:str):
llm = VertexAI(
model_name="text-bison@001",
max_output_tokens=256,
temperature=0.1,
top_p=0.8,
top_k=40,
verbose=True,
)
template = """
###{context}###
###で囲まれたテキストから、"質問:{question}" に関連する情報を抽出してください。
"""
prompt = PromptTemplate(
input_variables=["context", "question"],
template=template,
)
final_prompt = prompt.format(context=context, question=question)
result = llm(final_prompt)
return result