| |
|
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
| -> Python知识库 -> PyCharm Django python spark -> 正文阅读 |
|
|
[Python知识库]PyCharm Django python spark |
|
步骤1:安装python3.7 步骤2:安装PyCharm,并配置python3.7路径 步骤3:pip安装Django模块 步骤4:新建Django项目 步骤5:按照博客地址建好Django python django pycharm mysql_malingyu的专栏-CSDN博客 步骤6:安装pyspark模块、百度网盘地址链接:https://pan.baidu.com/s/1E_mi2FzoLiEMHvqUbDc50A? matplotlib、numpy模块,下载地址:http://www.lfd.uci.edu/~gohlke/pythonlibs/ 安装pyspark模块,下载pyspark解压到本地 pip install D:\SoftwareWork\P_Work\topicfour\venv\Scripts\pyspark 安装matplotlib ?pip install numpy-1.21.5+mkl-cp37-cp37m-win_amd64.whl? 安装numpy pip instll matplotlib-2.2.5-cp37-cp37m-win_amd64.whl
?引用的时候,不会报错。 步骤7:修改settings.py文件,添加spark目录
import sys
if 'SPARK_HOME' not in os.environ:
os.environ['SPARK_HOME'] = 'D:\Software\sparkfornet/spark-3.0.1-bin-hadoop2.7'
SPARK_HOME = os.environ['SPARK_HOME']
PY4J_DIR=os.path.normpath(SPARK_HOME+'\python\lib')
PYSPARK_DIR=os.path.normpath(SPARK_HOME+'\python')
sys.path.insert(0,PY4J_DIR)
sys.path.insert(0,PYSPARK_DIR)
说明:其中D:\Software\sparkfornet/spark-3.0.1-bin-hadoop2.7为spark的目录 ? ? ? ? ? ?\python\lib为PY4J的目录 步骤8:修改项目中的view.s文件 import numpy import matplotlib.pyplot as plt from pyspark import SparkContext, SparkConf, SQLContext def index(request):
conf = SparkConf().setMaster("local").setAppName("apitest")
sc = SparkContext(conf=conf)
spark = SQLContext(sc)
user = sc.textFile("user.txt")
a = user.first()
user_fields = user.map(lambda line: line.split("|"))
# 统计总的用户数
num_users = user_fields.map(lambda fields: fields[0]).count()
print(user.first())
data = user_fields.map(lambda x: int(x[0])).collect()
x = numpy.arange(1, 100, 1)
# 通过python中的matplotlib生成图表提供给分析师分析
plt.plot(x, data)
plt.xlabel(u"time/s") # X轴标签
plt.ylabel("data") # Y轴标签
plt.title("simple plot") # 标题
plt.show()
for i in range(len(data)):
if (data[i] > 10):
data[i] = (data[i - 1] + data[i + 1]) / 2
plt.plot(x, data)
plt.xlabel(u"time/s") # X轴标签
plt.ylabel("data") # Y轴标签
plt.title("simple plot") # 标题
plt.show()
return HttpResponse(u"你好")
?步骤9:运行程序后,postman进行测试
说明:其中apitest为app应用的名称,应根据自己实际的app名称进行修改。 至此实现了在django里面使用spark模块进行数据分析。 |
|
|
|
|
| 上一篇文章 下一篇文章 查看所有文章 |
|
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
| 360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年10日历 | -2025/10/21 3:26:20- |
|
| 网站联系: qq:121756557 email:121756557@qq.com IT数码 |