IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Hadoop 3.3 Spark 3.2 M1 MacOS 伪分布式配置 -> 正文阅读

[大数据]Hadoop 3.3 Spark 3.2 M1 MacOS 伪分布式配置

Hadoop 3.3 + Spark 3.2 + M1 MacOS伪分布式配置

安装Java 8

一开始装了Java 17发现Hadoop没法开启yarn,只好降低版本,适用于M1的Java 8下载:Java Download | Java 8, Java 11, Java 13 - Linux, Windows & macOS (azul.com)

Java多版本管理

打开~/.zshrc输入

export JAVA_17_HOME="/Library/Java/JavaVirtualMachines/jdk-17.0.2.jdk/Contents/Home"
alias java17='export JAVA_HOME=$JAVA_17_HOME'

export JAVA_11_HOME="/Library/Java/JavaVirtualMachines/zulu-11.jdk/Contents/Home"
alias java11='export JAVA_HOME=$JAVA_11_HOME'

export JAVA_8_HOME="/Library/Java/JavaVirtualMachines/zulu-8.jdk/Contents/Home"
alias java8='export JAVA_HOME=$JAVA_8_HOME'

# 默认使用java17
export JAVA_HOME=$JAVA_17_HOME

执行命令source ~/.zshrc,日常使用

java8 # 切换到java8
java -version # 查看当前java版本

Hadoop 3伪分布式

下载Apache Hadoop中aarch64版本,解压到~/opt(或者/usr/local),修改hadoop-3.3.2/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/Library/Java/JavaVirtualMachines/zulu-8.jdk/Contents/Home

接下来参考官网给出的伪分布式配置流程Apache Hadoop 3.3.2 – Hadoop: Setting up a Single Node Cluster.

  1. 设置免密登录ssh,在Mac的系统偏好设置->共享中打开远程登录选项

    ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    chmod 0600 ~/.ssh/authorized_keys
    ssh localhost # 检查现在是否需要密码
    
  2. 配置hadoop-3.3.2/etc/hadoop/core-site.xml

    <configuration>
      <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
      </property>
    </configuration>
    
  3. 配置hadoop-3.3.2/etc/hadoop/hdfs-site.xml

    <configuration>
      <property>
        <name>dfs.replication</name>
        <value>1</value>
      </property>
    </configuration>
    
  4. 配置hadoop-3.3.2/etc/hadoop/mapred-site.xml

    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
        <property>
            <name>mapreduce.application.classpath</name>
            <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>
        </property>
    </configuration>
    
  5. 配置hadoop-3.3.2/etc/hadoop/yarn-site.xml:

    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.nodemanager.env-whitelist</name>
            <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_HOME,PATH,LANG,TZ,HADOOP_MAPRED_HOME</value>
        </property>
    </configuration>
    
  6. 命令行启动

    bin/hdfs namenode -format # 初始化
    # 启动NameNode和DataNode
    # 启动后可以通过 http://localhost:9870/访问NameNode
    sbin/start-dfs.sh 
    # 生成默认目录
    bin/hdfs dfs -mkdir /user/<username>
    # 启动ResourceManager和NodeManager
    # 启动后可以通过 http://localhost:8088/访问ResourceManager
    sbin/start-yarn.sh
    
  7. 检查是否全部启动:命令行输入jps查看是否有NameNode、DataNode、ResourceManager和NodeManager
    如果启动失败,查看目录hadoop-3.3.2/logs下的对应日志。

Spark 3

  1. 安装Scala 2.12,命令行输入

    curl -fL https://github.com/coursier/launchers/raw/master/cs-x86_64-apple-darwin.gz | gzip -d > cs && chmod +x cs && (xattr -d com.apple.quarantine cs || true) 
    ./cs install scala:2.12.15 scalac:2.12.15
    
  2. 下载地址Downloads | Apache Spark,注意spark不同版本对hadoop和scala版本有不同要求,这里安装3.2.1。同样解压到~/opt(或者/usr/local),spark-3.2.1/conf/spark-env.sh.template重命名为spark-3.2.1/conf/spark-env.sh,修改spark-3.2.1/conf/spark-env.sh

    export JAVA_HOME=/Library/Java/JavaVirtualMachines/zulu-8.jdk/Contents/Home
    export SCALA_HOME=/Users/<username>/opt/spark-3.2.1
    export HADOOP_HOME=/Users/<username>/opt/hadoop-3.3.2
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    
  3. 命令行输入./spark-3.2.1/sbin/start-all.sh启动,启动有问题同样查看logs目录下的日志。

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-04-01 23:28:20  更:2022-04-01 23:30:06 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/21 0:21:58-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码