技术标签: datanode HDFS hadoop yarn namenode
开启方式(关闭方式):
【定期合并fsimage文件和edits_log文件,保证集群的可靠性】
secondarynamenode守护作用:【解决HDFS的可靠性】
【secondarynamenode利用检查点机制,将fsimage和edits_log合并,解决宕机以后对HDFS的】
【HA高可用是解决HDFS的单点故障】
【区别:】
secondarynamenode是解决高可靠
HA解决的是高可用,两者实现系统稳定运行的角度不一样
用了高可用就不需要secondarynamenode了,有另一台节点存储namenode在运行的namenode挂掉的时候,该节点顶上去,保证高可用
可靠性:
数据3份副本:确保数据的可靠性
心跳机制:确保数据节点的可靠性
secondarynamenode:确保宕机恢复的可靠性
机架感知:性能的可靠性
开启方式(关闭方式):
作用:
开启方式(关闭方式):
作用:
作用:
jar 默认10份副本
split 默认10份
job.xml 默认3份
splitmetainfo 默认3份,切分元数据
【随应用的开启而开启,生命周期同应用】
开启方式:
[hadoop@master hadoop]$ mr-jobhistory-daemon.sh start historyserver
starting historyserver, logging to /home/hadoop/soft/hadoop-2.7.3/logs/mapred-hadoop-historyserver-master.out[hadoop@master hadoop]$ jps
21896 JobHistoryServer
21931 Jps
作用:
方式一:start-dfs.sh + start-yarn.sh
start-dfs.sh会开启如下线程:
[hadoop@master ~]$
start-dfs.sh
Starting namenodes on [master]
master: starting namenode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-namenode-master.out
master: starting datanode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-datanode-master.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-secondarynamenode-master.out
主节点:(仅一个节点)
[hadoop@master ~]$
jps
17922 Jps17804 SecondaryNameNode
17583 NameNode
17886 DataNode
start-yarn.sh会开启如下线程:【只能在主节点执行该命令,从节点执行ResourceManager无法开启】
[hadoop@master ~]$
start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /home/hadoop/soft/hadoop-2.7.3/logs/yarn-hadoop-resourcemanager-master.out
slave02: starting nodemanager, logging to /home/hadoop/soft/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-slave02.out
slave03: starting nodemanager, logging to /home/hadoop/soft/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-slave03.out
slave01: starting nodemanager, logging to /home/hadoop/soft/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-slave01.out
主节点:
[hadoop@master ~]$
jps
18262 Jps
17804 SecondaryNameNode
17998 ResourceManager
17583 NameNode
17886 DataNode
方式一:start-dfs.sh + start-yarn.sh
start-dfs.sh会开启如下线程:
[hadoop@master ~]$
start-dfs.sh
Starting namenodes on [master]
master: starting namenode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-namenode-master.out
slave03: starting datanode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-datanode-slave03.out
slave01: starting datanode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-datanode-slave01.out
slave02: starting datanode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-datanode-slave02.out
Starting secondary namenodes [0.0.0.0]
0.0.0.0: starting secondarynamenode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-secondarynamenode-master.out
主节点:
[hadoop@master ~]$
jps
17922 Jps
17804 SecondaryNameNode(仅1个,辅助名称节点单独主机上开启)
17583 NameNode(仅1个,主节点中开启)【主节点开启NameNode守护进程以及SecondaryNameNode(一般会再启用一个主机给辅助名称节点)】
从节点:
[hadoop@slave01 ~]$
jps
19360 DataNode(多个,每个数据节点都会开启,用于维护和管理数据)
19472 Jps【从节点开启DataNode守护进程,每个数据节点都会开启】
start-yarn.sh会开启如下线程:【只能在主节点执行该命令,从节点执行ResourceManager无法开启】
[hadoop@master ~]$
start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /home/hadoop/soft/hadoop-2.7.3/logs/yarn-hadoop-resourcemanager-master.out
slave02: starting nodemanager, logging to /home/hadoop/soft/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-slave02.out
slave03: starting nodemanager, logging to /home/hadoop/soft/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-slave03.out
slave01: starting nodemanager, logging to /home/hadoop/soft/hadoop-2.7.3/logs/yarn-hadoop-nodemanager-slave01.out主节点:
[hadoop@master ~]$
jps
18262 Jps
17804 SecondaryNameNode
17998 ResourceManager(仅1个,主节点中开启)
17583 NameNode【在主节点中会开启ResourceManager,,用于调度整体的资源】
从节点:
[hadoop@slave03 ~]$
jps
18870 DataNode
19035 NodeManager(多个,每个数据节点都会开启)
19485 Jps【从节点会开启NodeManager,用于管控本节点的资源调度】
方式二:
hadoop-daemon.sh start namenode +
hadoop-daemon.sh start datanode +
hadoop-daemon.sh start secondarynamenode +
start-yarn.sh
hadoop-daemon.sh start namenode
[hadoop@master ~]$
hadoop-daemon.sh start namenode
starting namenode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-namenode-master.out[hadoop@master ~]$
jps
18731 NameNode
18862 Jps
hadoop-daemon.sh start datanode
[hadoop@slave01 ~]$
hadoop-daemon.sh start datanode
starting datanode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-datanode-slave01.out[hadoop@slave01 ~]$
jps
19877 Jps
19829 DataNode【分别在要开启的数据节点执行该命令,开启DataNode】
hadoop-daemon.sh start secondarynamenode
[hadoop@master ~]$
hadoop-daemon.sh start secondarynamenode
starting secondarynamenode, logging to /home/hadoop/soft/hadoop-2.7.3/logs/hadoop-hadoop-secondarynamenode-master.out[hadoop@master ~]$
jps
18827 SecondaryNameNode
18862 Jps【任意节点都能开,将fsimage和edits_log文件做合并操作】
start-yarn.sh
【通常采用方式二开启守护进程】
主节点:
[hadoop@master hadoop]$ jps
20321 SecondaryNameNode
20119 NameNode
20761 Jps
20474 ResourceManager【没有变化】
从节点:
[hadoop@slave03 ~]$ jps
20544 NodeManager
20420 DataNode
20857 YarnChild(在MRAppMaster开启后,MRAppMaster会根据Mapper任务的开启,启动YarnChild,用于执行Mapper任务以及reducer任务,一个数据节点默认最多开启2个YarnChild,而在哪个数据节点开启YarnChild也是随机的)
20905 Jps
20765 MRAppMaster(Job开启后,ResourceManager随机选定某个NodeManager,让其开启一个应用主节点,管理所有应用的运行,生命周期随Job的开启而开启,随Job的消亡而消亡)【开启了两个守护线程,MRAppMaster和YarnChild】
文章浏览阅读8.9k次,点赞4次,收藏17次。初学者python编辑器Are you a Python beginner looking for a tool that can support your learning? This article is for you! Every programmer needs a place to write their code. This article will discuss an aweso..._thonny调试灰色
文章浏览阅读8.7k次,点赞2次,收藏47次。Token流程: 1.建立token工具类,先编辑token签名sign():设置超时时长、token秘钥。 2.配置拦截器类,拦截器中重写preHandle()方法,对每次请求进行自定义的拦截操作。 3.建立配置类:定义拦截与不拦截的接口信息。页面请求登录接口→登录成功后,返回登录信息+token秘钥给前端→前端记住密钥信息,并赋予每个接口(例:在每个接口访问时将秘钥信息放置于headers中的参数下)→拦截器接到请求,从headers获取token密钥进行匹配,通过则继续访问,不通过则返回提示信_java中token用法
文章浏览阅读1.6k次,点赞3次,收藏14次。单纯看伪协议利用与之前的文件包含漏洞及其相似,但是在真实环境中是对用户输入进行了过滤替换的,在使用漏洞就需要不断考虑如何绕过这些过滤条件。只要我们开发过程中对于使用了伪协议这些函数的时候,一定要严格对用户参数进行过滤,避免一时偷懒导致服务器被黑,其实最终难逃其就。如有还不太理解或有其他想法的小伙伴们都可以私信我或评论区打出来哟,如有写的不好的地方也请大家多多包涵。_php伪协议是漏洞吗
文章浏览阅读5.3k次。oracle grant 授权语句 --select * from dba_users; 查询数据库中的所有用户 --alter user TEST_SELECT account lock; 锁住用户 --alter user TEST_SELECT account unlock; 给用户解锁 --create user xujin identified by xu_oracle授权语句grant
文章浏览阅读87次。今天应一位朋友的邀请,过去蹭了个饭吃,顺便坐了一个下午在聊着。这位老哥是一家软件公司的老板,原来是从硬件销售转型到做软件这一块。因为说到软件这一块,我就很想了解一下这位老哥对于2009年的大势是怎么看的,在2009年这个年头他的业务是如何规划的? 结果老哥的一通说法,使得我受益不浅。老哥说道:09年的大势是好是坏比较难说,我也并不看的太清,但是我相信的一点是09年是我们公司发展的关键年,成败就..._软件实施创业
文章浏览阅读677次。转载自:http://blog.csdn.net/hanchaoman/article/details/6697636 由于Linux对线程实现的一些特殊性,所以会给我们理解线程及其相关的一些函数带来疑惑,这里做个解答: 1、关于sleep 很多书籍上都说sleep这个系统调用会使整个进程sleep,而不单是sleep一个线程。这样说没错,但我们要是在Linux下写一_线程调度未执行某线程
文章浏览阅读1.9k次。1. 实时内核:实时内核是实时系统的核心组成部分,它具有实时调度器、实时任务管理器、实时中断处理器等功能,能够确保任务在预定的时间内得到执行。实时任务通常分为硬实时任务和软实时任务两种类型,硬实时任务要求任务必须在预定的时间内完成,而软实时任务只需要尽量满足时间限制。它通常分为硬实时系统和软实时系统,其中硬实时系统要求任务的响应时间必须严格满足预定的时间限制,而软实时系统只需要尽量满足时间限制。实时调度算法必须满足实时系统的基本要求,例如任务的可预测性和响应时间的最小化等。_实时操作系统
文章浏览阅读279次。病房中的不确定性首先我们专注于一个简单的问题。在其他条件都相同的情况下,这三个病人中的哪个面临着最大的不确定性?这个问题的答案是显而易见的,病人 C。他所面临的是在这种情况下可能呢存在的最大程度的不确定性:就像医疗版本的抛硬币试验一样。对于病人 A 来说,虽然他的情况不容乐观,但是至少他对于是否患病这个问题有最小的不确定性。对于病人 B,他的不确定性在病人 A 和病人 C 之间。这就是为什么要引入..._熵用手机计算机怎么算
文章浏览阅读416次。在画图里面,就像之前所说的。php的画图是真正动态画图,尽管自己承认会出的图是非常不好看的。但我们主要关注的应该还是数据处理。验证码我们差点儿无处不见,它的产生和画图技术是密不可分的。事实上,简单的验证码绘制出来是非常easy的,就像以下的一段代码就能够绘制出包括字母和数字的元素:$checkCode="";for($i=0; $i<=3;$i++){$checkCode.=dechex(r..._php header png
文章浏览阅读140次。 学生管理系统网页设计 、OA管理系统、后台管理模板、智能停车系统、等网站的设计与制作。️HTML网页设计,采用DIV+CSS布局,共有多个页面,排版整洁,内容丰富,主题鲜明,首页使用CSS排版比较丰富,色彩鲜明有活力,导航与正文字体分别设置不同字号大小。导航区域设置了背景图。子页面有纯文字页面和图文并茂页面。 一套优质的网页设计应该包含 (具体可根据个人要求而定)网站布局方面:计划采用目前主流的、能兼容各大主流浏览器、显示效果稳定的浮动网页布局结构。网站程序方面:计划采用最新_javascript、html进行信息管理
文章浏览阅读1.3w次。本文主要介绍了UiPath的If语句三种实现方式,分别是通过序列、流程图和三目运算符实现。这大概是最详细的UiPath使用文档,环境:UiPath Studio Community 2022.4.3/Windows/C#,网上的文档和教程基本都是VB的,本文基于C#学习UiPath。..._uipath闰年
文章浏览阅读155次。原标题:吉林 | 第五届吉林省"互联网+"大学生创新创业大赛总决赛在吉林外国语大学举行 7月27日,"建行杯"第五届吉林省"互联网+"大学生创新创业大赛总决赛在吉林外国语大学举行。本届大赛由省教育厅、团省委、省发改委、省科技厅、省工业和信息化厅、省人力资源和社会保障厅、省农业农村厅、省网信办、省外事办、省扶贫办共同主办,吉林外国语大学承办,由建行吉林省分行协办。 吉林省委教育工委副书记、吉林省教育..._吉林省互联网+省赛决赛在什么时间