Python编程AI交互
推荐超级课程:
@TOC
使用Llama DeepSeek模型本地分析文件
在人工智能驱动的时代,本地运行大型语言模型(LLMs)提供了隐私保护和效率控制。一个强大的开源模型DeepSeek可以通过Ollama利用,直接在您的机器上分析文件。
为什么要在本地分析文件?
在本地运行人工智能模型有几个优势:
- 数据隐私:无需将敏感数据上传到外部服务器。
- 降低成本:避免基于云服务的API订阅费用。
- 性能和可用性:随时使用模型,无需依赖互联网速度或API限制。
分析本地CSV文件示例
前提
Python: 3.11
启动Ollama:
ollama serve
数据准备: https://www.csvplot.com/
创建Python工程
安装Python库
pip install pandas ollama
编写代码(analyze_csv.py)
import pandas as pd import ollama def analyze_csv(file_path): df = pd.read_csv(file_path) data_summary = df.describe().to_string() prompt = f""" 下面是用户提供的一套数据集: {data_summary} 请分析时间(年/月)和乘客数量,并进行趋势分析和总结。并总结出每年乘客高峰的月份是哪个月。 """ response = ollama.chat(model='deepseek-r1:7b', messages=[{'role': 'user', 'content': prompt}]) print("分析结果:", response['message']['content']) # Run analysis on the provided file analyze_csv("data/航空乘客数量统计.csv")
运行
python analyze_file.py
查看Ollama运行的模型:
查看CPU和内存使用情况:
最终结果:
扩展使用场景
这种方法不仅限于CSV文件。您可以应用类似的逻辑到:
- 文本文件:摘要和情感分析。
- JSON日志:从结构化日志中提取关键见解。
- 财务数据:基于历史趋势的预测分析。
思考
DeepSeek结合Ollama,使得无需依赖云服务就能高效地进行本地文件分析。 您可以在保持隐私和控制的同时,利用人工智能的力量从数据中提取宝贵见解。 无论是分析数据集中的趋势、总结报告还是检测异常,本地LLMs都为数据驱动决策提供了强大的工具集。