무제
[Langchain] Cache 본문
동일한 입력에 대해 결과를 cache하는 방법
cache의 종류가 다양한듯하다
https://rudaks.tistory.com/entry/langchain-Model-Caches-%EC%82%AC%EC%9A%A9%ED%95%98%EA%B8%B0
[langchain] Model Caches 사용하기
LLM을 사용할 때, 동일한 입력에 대해 반복적으로 호출되는 쿼리의 결과를 캐싱하는 것이 효율적이다. 이를 위해 LangChain에서는 다양한 방식으로 캐싱을 지원한다. LangChain에서 캐시를 사용하는
rudaks.tistory.com
from langchain.chat_models import ChatOpenAI
from langchain.llms import OpenAI
from langchain.callbacks import get_openai_callback
from langchain.globals import set_llm_cache, set_debug
from langchain.cache import InMemoryCache, SQLiteCache
from langchain.callbacks import StreamingStdOutCallbackHandler
# set_llm_cache(InMemoryCache())
set_llm_cache(SQLiteCache("cache/test.db"))
# chat = ChatOpenAI(temperature=0.1,
# model="gpt-4o-mini",
# streaming=True,
# callbacks=[
# StreamingStdOutCallbackHandler()],
# )
chat = OpenAI(cache=False)
prompt = "What is famous street foods in Seoul Korea in 200 characters"
with get_openai_callback() as callback:
response = chat.invoke(prompt)
print(response)
print("Total Tokens:",callback.total_tokens)
with get_openai_callback() as callback:
response = chat.invoke(prompt)
print(response)
print("Total Tokens:",callback.total_tokens)'Project > LLM' 카테고리의 다른 글
| [Langchain] Qdrant Vector DB (2) | 2024.11.12 |
|---|---|
| [Langchain] Splitter / Vector DB (0) | 2024.11.10 |
| [Langchain] Memory (0) | 2024.10.25 |
| [Langchain] Template (2) | 2024.10.21 |
| LLM 프로젝트 1일차 키워드 정리 (0) | 2024.10.14 |
Comments