Back-End/Python
-
[OpenAI/LM Studio] #4 로컬 LLM 모델 서버를 React와 연결해서 챗봇 만들기Back-End/Python 2025. 8. 13.
2023.12.20 - [Front-End/React] - [React] React redux-saga 프로젝트 시작하기 #1 [React] React redux-saga 프로젝트 시작하기 #1React 프로젝트를 연습하려고 새로 Repository를 생성하였다 https://github.com/leeyomyeon/sample-project GitHub - leeyomyeon/sample-project Contribute to leeyomyeon/sample-project development by creating an account on GitHub. github.com UIdownload1324.tistory.com예전에 만들었던 React redux-saga 프로젝트가 생각나서 이참에 챗봇ui도 만..
-
[OpenAI/LM Studio] #3 Flask로 백엔드 서버 배포하기Back-End/Python 2025. 8. 13.
2025.08.11 - [Back-End/Python] - [OpenAI/LM Studio] #2 로컬 LLM 모델에 RAG를 붙여 챗봇 시스템 만들기 [OpenAI/LM Studio] #2 로컬 LLM 모델에 RAG를 붙여 챗봇 시스템 만들기저번 포스트에 이어서 로컬 LLM에 RAG를 붙여봅시다. pymupdf4llm은 python에서 pdf파일을 llm에 쓰기 쉽게 하기 위한 파싱 도구입니다.langchain의 text_splitter를 이용해 텍스트를 청크단위로 쪼개줍니다.impodownload1324.tistory.com위 글에 이어서 로컬에서의 코드 실행을 전부 테스트해보았으니 flask를 이용해 서버를 배포해보려고 합니다.flask는 웹 프론트 + 백엔드 서버를 동시에 구축할 수 있으나 여기서..
-
[OpenAI/LM Studio] #2 로컬 LLM 모델에 RAG를 붙여 챗봇 시스템 만들기Back-End/Python 2025. 8. 11.
저번 포스트에 이어서 로컬 LLM에 RAG를 붙여봅시다. pymupdf4llm은 python에서 pdf파일을 llm에 쓰기 쉽게 하기 위한 파싱 도구입니다.langchain의 text_splitter를 이용해 텍스트를 청크단위로 쪼개줍니다.import pymupdf4llmfrom langchain.text_splitter import RecursiveCharacterTextSplitterdef load_pdf(file_path): pdf_data = pymupdf4llm.to_markdown(file_path) text = "".join(pdf_data) print("pdf 파일 업로드 중...") return textdef split_text(text): text_splitter = Recur..
-
[OpenAI/LM Studio] #1 LLM Local Model을 Python과 연결하기Back-End/Python 2025. 8. 11.
참조https://github.com/openai/openai-cookbook/blob/main/articles/gpt-oss/run-locally-lmstudio.md openai-cookbook/articles/gpt-oss/run-locally-lmstudio.md at main · openai/openai-cookbookExamples and guides for using the OpenAI API. Contribute to openai/openai-cookbook development by creating an account on GitHub.github.comhttps://lmstudio.ai/docs/app/basics/download-model Python Version => 3.11pip..