[Jour 3] Analyser un an de relevés de carte de crédit avec un LLM local : une approche axée sur la confidentialité

Cet article présente une expérience consistant à analyser douze mois de relevés bancaires entièrement en local avec un grand modèle de langage. En s'appuyant sur le matériel NVIDIA DGX Spark, Ollama comme environnement d'exécution et le modèle Qwen2.5 d'Alibaba, l'auteur détaille le pipeline complet, de la préparation des données à l'inférence locale. La comparaison entre les versions 7B et 72B paramètres montre comment un modèle local peut extraire avec précision les tendances de dépenses sans jamais transmettre de données sensibles au cloud. Une démarche concrète pour l'analyse de données personnelles soucieuse de la vie privée.

Contexte

[Day 3] I'm going to hand a year of credit card statements over to a local LLM and see what it can do. This is experiment #3. What I'm using today: DGX Spark + Ollama + Qwen2.5 (comparing 7B vs 72B). Ollama is the de-facto local-LLM runtime, and Qwen2.5 is a multilingual model from Alibaba (China) that handles Japanese reasonably well, apparently. Today's setup includes Data: 12 months of credit card transaction data, the full pipeline for running local inference, and initial analysis results showing how a local model can extract spending patterns without sending any data to the cloud.

Analyse approfondie

[Day 3] I Had a Local LLM Analyze a Year of My Credit Card Statements

Impact industriel

AI industry dynamics in 2026 Q1 continue to evolve rapidly, with this development representing a significant milestone in the transition from technology breakthroughs to mass commercialization.

Perspectives

The convergence of infrastructure investment growth, security standardization, open-source competition, and agentic AI deployment will reshape the technology landscape over the next 12-18 months.