- 1、本文档共7页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Spark集群安装
Spark集群安装环境准备网上的资料真的是太混乱了,写的都是乱七八糟。还得自己动手机器环境使用vmware准备三台机器192.167.2.10 Master192.167.2.11 Slave1192.167.2.12 Slave2注意一定要在/etc/sysconfig/network和hosts中修改主机名称和ip映射。在spark中是通过主机名称来找master。软件环境创建用户spark或者hadoop这个随意,最好修改一下/etc/sudoers文件,让这些用户有sudo的权限方便。需要安装的软件1)jdk-8u92-linux-x64.gz2) hadoop-2.7.3.tar.gz3) spark-2.0.2-bin-hadoop2.7.tgz这是最小安装关闭防火墙Systemctl stop firewalldSystemctldisable firewalld安装java这个简单,我就直接写命令了tar –zvxf jdk-8u92-linux-x64.gzsudo mv jdk1.8.92 /usr/local/jdk修改.bash_profileExport JAVA_HOME=/usr/local/jdkExport PATH=$PATH:$JAVA_HOME/bin然后source .bash_profile使其生效。这个简单,也可以子啊/etc/profile中修改。三个机器要安装。建议三台机器安装的路径要一致。Ssh配置这是一个关键的问题。在192.167.2.10上Ssh-genkey –t rsa在~/.ssh/目录下创建了id_rsa和id_rsa.pub文件,而id_rsa.pub为公钥。Cd ~/.ssh/Cat id_rsa.pub authorized_keysChmod 600 authorized_keys只有将权限修改为600才起作用。使用sshlocalhost测试是否无密码登录本地。将authorized_keys拷贝到192.167.2.11和192.167.2.12上。都是~/.ssh/目录下即~/.ssh/authorized_keys文件。将.ssh目录修改为700,将authorized_keys文件修改为600通过sshSlave1和ssh Slave2来测试是否能无密码登录远程机器。安装hadoop软件安装我使用了用hlf用户,所以在/home/hlf目录,我就在这个目录下完成hadoop和spark的安装。Cd /home/hlfMkdirhadoop将hadoop-2.7.3.tar.gz上传到hadoop目录下Tar –zvxf Hadoop-2.7.3.tar.gz这样/home/hlf/hadoop/hadoop-2.7.3就存在了配置文件在/home/hlf/hadoop/hadoop-2.7.3中的etc/hadoop/是配置文件需要修改的文件:Hadoop-env.shCore-site.xmlHdfs-site.xmlMapred-site.xmlYarn-site.xmlHadoop-env.sh在hadoop-env.sh中添加export JAVA_HOME=/usr/local/jdkCore-site.xml在该文件中用到了临时目录,所以使用mkdir要创建/home/hlf/hpdata/tmp目录。Hdfs-site.xml在该文件中需要使用/home/hlf/hpdata/dfs/data目录和/home/hlf/hpdata/dfs/name目录Mapred-site.xmlYarn-site.xml注意yarn.nodemanager.resource.memory-mb至少为1024Slaves文件在该文件中添加192.167.2.11192.167.2.12分布将/home/hlf/hadoop目录分发大Slave1和Slave2中。运行bin/hdfsnamenode-format进行格式化sbin/start-all.sh启动hadoop系统。安装spark将spark-2.0.2-bin-hadoop2.7.tgz上传到/home/hlf/spark下,解压为spark-2.0.2-bin-hadoop2.7在conf目录中是配置文件,修改spark-env.sh文件和slaves文件Slaves文件添加如下:MasterSlave1Slave2Spark-env.sh启动Spark目录下的sbin/start-all.sh测试Spark目录下bin/pyspark启动python的shell进行测试。总结这是最小的安装和配置,可以作为玩具的类型进行学习和研究。
您可能关注的文档
- Ad Hoc Network英文简介.ppt
- hadoop官方文档0.18.docx
- Hadoop2.2安装文档.doc
- hadoop平台搭建流程.docx
- VMware Workstation 7.0.0 安装 Oracle 10g RAC 成功.doc
- rsync+inotify配置触发式(实时)远程同步.doc
- 练习题(单项选择题)1.ppt
- CentOS6.2下Hadoop全分布式集成配置文档.docx
- hadoop VMWare cluster 设置.docx
- hadoop-1.0.0学习笔记.docx
- 大学生职业规划大赛《新闻学专业》生涯发展展示PPT.pptx
- 大学生职业规划大赛《应用统计学专业》生涯发展展示PPT.pptx
- 大学生职业规划大赛《音乐学专业》生涯发展展示PPT.pptx
- 大学生职业规划大赛《中医学专业》生涯发展展示PPT.pptx
- 大学生职业规划大赛《信息管理与信息系统专业》生涯发展展示PPT.pptx
- 大学生职业规划大赛《汽车服务工程专业》生涯发展展示PPT.pptx
- 大学生职业规划大赛《水产养殖学专业》生涯发展展示PPT.pptx
- 大学生职业规划大赛《市场营销专业》生涯发展展示PPT.pptx
- 大学生职业规划大赛《音乐表演专业》生涯发展展示PPT.pptx
- 大学生职业规划大赛《音乐学专业》生涯发展展示PPT.pptx
文档评论(0)