[Day 3] 로컬 LLM로 신용카드 1년 치 거래 내역 분석하기: 프라이버시 중심의 실용적 접근
본 글은 신용카드 거래 데이터 1년치를 클라우드에 한 번도 올리지 않고 완전히 로컬에서 분석한 실험 기록을 공유합니다. NVIDIA DGX Spark 하드웨어와 Ollama 런타임, 그리고 알리바바의 Qwen2.5 모델을 활용해 데이터 전처리부터 로컬 추론까지의 전체 파이프라인을 구성했습니다. 7B와 72B 모델의 성능을 비교하며, 로컬 환경에서도 지출 패턴과 소비 경향을 정확하게 추출할 수 있음을 검증했습니다. 민감한 금융 정보를 외부로 노출하지 않으면서 AI를 활용할 수 있는 실용적인 기술 로드맵을 제시합니다.
배경
[Day 3] I'm going to hand a year of credit card statements over to a local LLM and see what it can do. This is experiment #3. What I'm using today: DGX Spark + Ollama + Qwen2.5 (comparing 7B vs 72B). Ollama is the de-facto local-LLM runtime, and Qwen2.5 is a multilingual model from Alibaba (China) that handles Japanese reasonably well, apparently. Today's setup includes Data: 12 months of credit card transaction data, the full pipeline for running local inference, and initial analysis results showing how a local model can extract spending patterns without sending any data to the cloud.
심층 분석
[Day 3] I Had a Local LLM Analyze a Year of My Credit Card Statements
산업 영향
AI industry dynamics in 2026 Q1 continue to evolve rapidly, with this development representing a significant milestone in the transition from technology breakthroughs to mass commercialization.
전망
The convergence of infrastructure investment growth, security standardization, open-source competition, and agentic AI deployment will reshape the technology landscape over the next 12-18 months.