全国旗舰校区

不同学习城市 同样授课品质

北京

深圳

上海

广州

郑州

大连

武汉

成都

西安

杭州

青岛

重庆

长沙

哈尔滨

南京

太原

沈阳

合肥

贵阳

济南

下一个校区
就在你家门口
+
当前位置:首页  >  技术干货  >  详情

python怎么用python写spark

来源:千锋教育
发布人:xqq
2023-11-07

推荐

在线提问>>

为什么要使用Python来写Spark

Python写spark我认为唯一的理由就是:你要做数据挖掘,AI相关的工作。因为很多做数挖的他们的基础语言都是python,他们如果重新学scala比较耗时,而且,python他的强大类库是他的优势,很多算法库只有python有。

Win本地编写代码调试

编辑器:PyCharm

Spark:1.6

Python:2.7

Win环境准备

Python的安装

解压python包,在环境变量里面配上bin的路径

Spark的安装

下载spark的bin文件,解压即可,在环境变量配置SPARK_HOME

要可以通过编辑器来安装,如pycharm,查找pyspark库安装即可

Hadoop安装

安装hadoop环境。在win下面需要winutils.exe;在环境里面配置HADOOP_HOME即可。

代码示例

#-*-coding:utf-8-*-

from__future__importprint_function

frompysparkimport*

importos

print(os.environ['SPARK_HOME'])

print(os.environ['HADOOP_HOME'])

if__name__=='__main__':

sc=SparkContext("local[8]")

rdd=sc.parallelize("helloPysparkworld".split(""))

counts=rdd\

.flatMap(lambdaline:line)\

.map(lambdaword:(word,1))\

.reduceByKey(lambdaa,b:a+b)\

.foreach(print)

sc.stop

问题:

frompysparkimport*

找不到pyspark。那你需要把spark的bin包下面的python的所有都拷贝到(可能需要解压py4j)

%PYTHON%\Lib\site-packages下面去。这样,你的编辑器才能找到。

或者:

配置你的编辑器的环境变量:

PYTHONPATH=F:\home\spark-1.6.0-bin-hadoop2.6\python;F:\python2.7\Lib\site-packages

使用spark-submit提交时用到其他类库–py-filesxxxx/xxxx.zip,xxxx.py。

以上内容为大家介绍了Python培训之怎么用python写spark,希望对大家有所帮助,如果想要了解更多Python相关知识,请关注IT培训机构:千锋教育。

相关文章

如何使用python any()判断多元素?

如何使用Pandas处理Excel?

python函数中的参数有哪些?

python中pygal模块如何使用?

Python的excel处理操作

开班信息 更多>>

课程名称
全部学科
咨询

HTML5大前端

Java分布式开发

Python数据分析

Linux运维+云计算

全栈软件测试

大数据+数据智能

智能物联网+嵌入式

网络安全

全链路UI/UE设计

Unity游戏开发

新媒体短视频直播电商

影视剪辑包装

游戏原画

    在线咨询 免费试学 教程领取