분류 전체보기 65

[MCP] Github MCP Server 사용하기

이전 포스트에서 Claude에서 MCP를 사용하는 모습을 간단히 소개해드렸는데요, 이번에는 한 단계 더 나아가 직접 MCP 서버를 가져다가 사용해보도록 하겠습니다. 직접 개발하는 대신 이미 만들어진 GitHub MCP 서버를 활용하여 Claude와 연결하는 방법을 알아보겠습니다. 1. Claude에서 MCP 사용 준비하기Claude로 MCP를 사용하기 위해서는 두 가지가 필요합니다: Claude Pro 구독 결제Claude 데스크톱 앱 설치Claude 데스크톱 앱은 공식 웹사이트 좌측 하단에서 다운로드하실 수 있습니다.   이렇게 claude 앱을 다운로드 받고나면 설정-> 개발자 탭을 들어가줍니다.  윈도우의 경우 좌측 상단에 설정탭이 따로 있을 것이고, mac os의 경우 mac 화면 자체 좌측 상단..

[LLMops] Opik으로 LLM 평가하기

이전 포스팅에서 소개한 Opik 프레임워크를 활용하여 실제 LLM 응답을 평가하는 방법에 대해 알아보겠습니다. Opik은 다양한 메트릭을 통해 LLM 출력물의 품질을 체계적으로 평가할 수 있는 프레임워크를 제공합니다. 1. Opik 평가의 주요 구성 요소Opik에서 평가를 진행하기 위해서는 다음 세 가지 핵심 구성요소가 필요합니다: 1) 데이터 세트- LLM 응용 프로그램에 대한 입력과 선택적으로 예상 출력을 나타내는 샘플의 컬렉션- 각 샘플에 대한 입력 및 예상 출력만 저장하며, LLM 지원서의 출력은 평가 프로세스 중에 계산되고 점수가 매겨집니다.2) 평가 과제- 데이터 세트에 저장된 입력을 점수를 매기고 싶은 출력에 매핑합니다. 평가 과제는 일반적으로 프롬프트 템플릿 또는 빌드 중인 LLM 애플리케..

LLMops 2025.03.28

[LLM] context 기반 답변 비교

이전에 재무제표 데이터로 DB를 구축했으니 이 데이터를 이용해 사용자 쿼리에 대해 답변을 생성해 보도록하겠습니다. 1. DB 조회해서 데이터 가져오기psycopg2.connect()을 사용해 디비에 연결된 상황고 query 변수로 사용자가 원하는 해외 기업이 input으로 들어왔다고 가정하고 진행하도록 하겠습니다. def get_company_financial_data(conn, ticker): """특정 기업의 모든 재무 데이터 조회""" cursor = conn.cursor() # 기업 정보 확인 cursor.execute( "SELECT ticker, company_name FROM companies WHERE ticker = %s", (ticker,) ) ..

FinAgent Lab 2025.03.27

[DB] Postgresql DB 구축하기

일전에 크롤링을 통해 얻었던 재무제표 데이터를 활용해 로컬에서 postgresql DB를 구축해 자연어 쿼리에서 엔티티를 추출했다는 가정하에, 특정 기업에 대한 데이터를 디비에서 조회해서 LLM에게 context로 제공해 답변을 생성해보도록 하겠습니다. 1. Postgresql 설치도커 컨테이너를 사용하지않고 가장 기본적인 로컬 환경에서 실행을 할 것이기 때문에 아래 명령어로 먼저 Postgresql 서버가 실행중인지 확인해줍니다. brew services list 초기엔 당연히 postgresql이 안나올것이고 실행을 위해서는 "brew services start postgresql" 명령어를 입력해줘야합니다.  실행후 사진과같은 에러가 발생했다면, postgresql이 설치되어있지 않아서 생긴 에러이..

FinAgent Lab 2025.03.26

[crawling] 해외 기업 재무제표 crawling 해오기

국내 주식을 대상으로 Agent를 개발하던 중 대상이 해외 종목으로 바뀌면서, 기존에 "한경컨센서스"에서 가져오던 재무제표 데이터를 새로운 출처에서 확보해야 했습니다. 이 과정에서 발견한 유용한 해외 종목 데이터 사이트들과 크롤링 과정을 소개합니다. 1. 해외 기업 데이터 사이트 소개1) MacrotrendsMacrotrends는 미국 기업들의 재무정보를 무료로 제공하는 사이트입니다. 중앙 검색창을 통해 원하는 기업을 찾으면 해당 기업의 재무 데이터를 종합적으로 확인할 수 있습니다.  중앙 서치바를 통한 기업 검색을 통해 해당 기업의 매출, 이익, 가격 지표 등 다양한 데이터를 확인할 수 있습니다.  주요 특징:기업의 과거 15년 치 데이터 제공 (매출, 순이익, 자산, 부채, 현금흐름 등)모든 주요 재..

FinAgent Lab 2025.03.25

MCP (Model Context Protocol)

1. MCP란?MCP는 Model Context protocal의 약자로 2024년 11월에 앤트로픽에서 발표한 개념으로 최근 이슈가 되고 있습니다. 이러한 MCP는 아래와 같이 다양하게 정의되고 있습니다. - AI 에이전트가 웹 브라우저 없이도 직접 다양한 인터넷 서비스와 소통할 수 있게 해주는 표준 프로토콜- AI 모델이 외부 데이터 및 도구와 상호 작용할 수 있도록 설계된 표준 프로토콜- Client(클로드,커서,...)에서 다른 도구들도 쓸 수 있게 통일을 시켜주는 하나의 프로토콜 이와 같이 부르는 사람에따라 다양한 의미로 표현되고 있지만, 간단하게 말하면 " Client, LLM, Server를 이어주는 USB-C 포트와 유사한 역할"이라고 할 수 있습니다. 아래 이미지를 참고하면 더 쉽게 이해..

카테고리 없음 2025.03.22

티스토리 블로그 + Github 연동 (잔디 심기)

티스토리 블로그에 글을 작성하면 깃허브 계정에서 자동으로 잔디가 심어지도록 설정해보도록 하겠습니다. 그러기 위해 Github Action을 이용하여 하루에 한번 티스토리의 RSS를 기반으로 Github에 커밋이 되도록 하겠습니다. 1. 티스토리 RSS 설정먼저 티스토리 블로그에서 RSS 를 설정해줍니다. 내 블로그 설정 -> 관리 -> 블로그 -> 기타 설정에 위치한 RSS를 "전체 공개"로 설정 후 저장해줍니다. "https://striver.tistory.com/rss" 와 같이 자신의 블로그 주소에 접속하면 RSS 정보가 확인 가능합니다.  2. Repository 생성Github Action으로 연동할 새로운 repository를 생성합니다.  3. 로컬 환경과 Repository 연동자신이 편한..

카테고리 없음 2025.03.21

[LLMops] 오픈소스 LLM 평가 프레임워크 opik

오늘은 오픈소스로 제공되는 LLM 평가 프레임워크인 opik을 처음 접하게 되어 간단한 설명과 활용방법에 대해 얘기해보겠습니다. opik은 LLM 애플리케이션을 평가, 테스트 및 모니터링하기 위한 오픈소스 플랫폼입니다. 저는 보통 RAG 파이프라인을 구성한후 추적을 하는 용도로 Langsmith를 많이 사용했는데, opik에서 좀 더 직관적인 ui와 LLM 성능을 자동으로 평가하는 기능도 제공한다고해서 사용해보게 되었습니다.  로그인하고 볼 수 있는 메인 화면인데 상당히 깔끔한 구조입니다.  하단의 Quickstart guide를 보면 사용하는 프레임워크별로 LLM을 추적할 수 있게끔 샘플 코드가 작성되어있습니다. from langchain_openai import ChatOpenAIfrom common..

LLMops 2025.03.12

[Fine-Tuning] LLM 파인튜닝 솔루션 - Unsloth

LLM을 클라우드 환경이나 Google Colab에서 파인튜닝하는 과정에서 종종 라이브러리 간 의존성 충돌로 인해 실행 오류가 발생하고, 높은 메모리 사용량과 긴 학습 시간이 문제가 되곤 합니다. 이러한 문제를 해결할 수 있는 보다 효율적인 방법을 찾던 중, 단일 GPU 환경에서도 최적의 성능을 제공하는 "Unsloth"를 접하게 되어 소개해 보겠습니다.1. Unsloth란 무엇인가?Unsloth는 LLM(대형 언어 모델) 파인튜닝을 보다 효율적으로 수행할 수 있도록 설계된 혁신적인 도구입니다. Michael과 Daniel Han 형제가 개발한 이 프로젝트는 적은 자원으로도 강력한 성능을 발휘할 수 있도록 최적화되어 있으며, 학습 속도 향상과 메모리 사용량 절감을 주요 목표로 하고 있습니다.Unsloth..

Fine-Tuning 2025.02.26

[Fine-Tuning] LLM fine-tuning (/w Elice Cloud) (2)

저번 글에 이어서 이번엔 파인 튜닝을 통해 추론 성능을 상승시켜보도록 하겠습니다. 어떻게 접근할지 고민하다가 누가 Dacon에 "Gemma-2-2B-it Full Finetuning 모델"을 공유 해주어서 이 코드를 먼저 실행 해 보았습니다. !pip install transformers==4.40.1 accelerate==0.30.0 bitsandbytes==0.43.1 auto-gptq==0.7.1 autoawq==0.2.5 optimum==1.19.1 -qqq !pip uninstall -y torch torchvision torchaudio!pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu..

Fine-Tuning 2025.02.24