무제

[Langchain] Cache 본문

Project/LLM

[Langchain] Cache

mugan1 2024. 10. 23. 08:35

동일한 입력에 대해 결과를 cache하는 방법

 

cache의 종류가 다양한듯하다

https://rudaks.tistory.com/entry/langchain-Model-Caches-%EC%82%AC%EC%9A%A9%ED%95%98%EA%B8%B0

 

[langchain] Model Caches 사용하기

LLM을 사용할 때, 동일한 입력에 대해 반복적으로 호출되는 쿼리의 결과를 캐싱하는 것이 효율적이다. 이를 위해 LangChain에서는 다양한 방식으로 캐싱을 지원한다. LangChain에서 캐시를 사용하는

rudaks.tistory.com

https://bcho.tistory.com/1411

from langchain.chat_models import ChatOpenAI
from langchain.llms import OpenAI
from langchain.callbacks import get_openai_callback
from langchain.globals import set_llm_cache, set_debug
from langchain.cache import InMemoryCache, SQLiteCache
from langchain.callbacks import StreamingStdOutCallbackHandler

# set_llm_cache(InMemoryCache())
set_llm_cache(SQLiteCache("cache/test.db"))
# chat = ChatOpenAI(temperature=0.1, 
#             model="gpt-4o-mini",  
#             streaming=True,
#             callbacks=[
#                 StreamingStdOutCallbackHandler()],
#             )

chat = OpenAI(cache=False)
prompt = "What is famous street foods in Seoul Korea in 200 characters"

with get_openai_callback() as callback:
    response = chat.invoke(prompt)
    print(response)
    print("Total Tokens:",callback.total_tokens)

with get_openai_callback() as callback:
    response = chat.invoke(prompt)
    print(response)
    print("Total Tokens:",callback.total_tokens)

'Project > LLM' 카테고리의 다른 글

[Langchain] Qdrant Vector DB  (2) 2024.11.12
[Langchain] Splitter / Vector DB  (0) 2024.11.10
[Langchain] Memory  (0) 2024.10.25
[Langchain] Template  (2) 2024.10.21
LLM 프로젝트 1일차 키워드 정리  (0) 2024.10.14
Comments