• 欢迎来到魔据教育大数据学院,专注大数据工程师培养!
    当前位置:首页 > 新闻动态 > 行业资讯 > Hadoop是什么?

    Hadoop是什么?

    时间:2018-09-26 09:10:32作者:[!--zuozhe--]

      Hadoop: 适合大数据的分布式存储和计算?#25945;?/p>

      Hadoop不是指具体一个框架或者组件,它是Apache软件基金会下用Java语言开发的一个开源分布式计算?#25945;ā?#23454;现在大量计算机组成的集群中?#38498;?#37327;数据进行分布式计算。适合大数据的分布式存储和计算?#25945;ā?/p>

      Hadoop1.x中包括两个核心组件:MapReduce和Hadoop Distributed File System(HDFS)

      其中HDFS负责将海量数据进行分布式存储,而MapReduce负责提供对数据的计算结果的汇总

     

      Hadoop的起源

      2003-2004年,Google公布了部分GFS和MapReduce思想?#21335;?#33410;,受此启发的Doug Cutting?#28909;?#29992;2年的业余时间实现了DFS和MapReduce机制,使Nutch性能飙升。然后Yahoo招安Doug Gutting及其项目。

      2005年,Hadoop作为Lucene的子项目Nutch的一部分正式引入Apache基金会。

      2006年2月被分离出来,成为一套完整独立的软件,起名为Hadoop

      Hadoop名字不是一个缩写,而是一个生造出来的词。是Hadoop之父Doug Cutting儿?#29992;?#32466;玩具象命名的。

     

      Hadoop的成长过程

      Lucene–>Nutch—>Hadoop

      总结起来,Hadoop起源于Google的三大论文

      GFS:Google的分布式文件系统Google File System

      MapReduce:Google的MapReduce开源分布?#35762;?#34892;计算框架

      BigTable:一个大型的分布式数据库

     

      演变关系

      GFS—->HDFS

      Google MapReduce—->Hadoop MapReduce

      BigTable—->HBase

      Hadoop发?#25925;?/p>

      Hadoop大事记

      2004年— 最初的版本(现在称为HDFS和MapReduce)由Doug Cutting和Mike Cafarella开始实施。

      2005年12月— Nutch移植到新?#30446;?#26550;,Hadoop在20个节点上稳定运行。

      2006年1月— Doug Cutting加入雅虎。

      2006年2月— Apache Hadoop项目正式启动以支持MapReduce和HDFS的独立发展。

      2006年2月— 雅虎的网格计算团队采用Hadoop。

      2006年4月— 标准排序(10 GB每个节点)在188个节点上运行47.9个小时。

      2006年5月— 雅虎建立了一个300个节点的Hadoop研究集群。

      2006年5月— 标准排序在500个节点上运行42个小时(?#24067;?#37197;置比4月的更好)。

      2006年11月— 研究集群增加到600个节点。

      2006年12月— 标准排序在20个节点上运行1.8个小时,100个节点3.3小时,500个节点5.2小时,900个节点7.8个小时。

      2007年1月— 研究集群到达900个节点。

      2007年4月— 研究集群达到两个1000个节点的集群。

      2008年4月— 赢得世界最快1TB数据排序在900个节点上用时209秒。

      2008年7月— 雅虎测试节点增加到4000个

      2008年9月— Hive成为Hadoop的子项目

      2008年11月— Google宣布其MapReduce用68秒对1TB的程序进?#20449;?#24207;

      2008年10月— 研究集群每天装载10TB的数据。

      2008年— ?#21592;?#24320;始?#24230;?#30740;究基于Hadoop的系统–云梯。云梯总容量约9.3PB,共有1100台机器,每天处理18000道作业,扫描500TB数据。

      2009年3月— 17个集群总共24 000台机器。

      2009年3月— Cloudera推出CDH(Cloudera’s Dsitribution Including Apache Hadoop)

      2009年4月— 赢得每分钟排序,雅虎59秒内排序500 GB(在1400个节点上)和173分钟内排序100 TB数据(在3400个节点上)。

      2009年5月— Yahoo的团队使用Hadoop对1 TB的数据进?#20449;?#24207;只花了62秒时间。

      2009年7月— Hadoop Core项目更名为Hadoop Common;

      2009年7月— MapReduce 和 Hadoop Distributed File System (HDFS) 成为Hadoop项目的独立子项目。

      2009年7月— Avro 和 Chukwa 成为Hadoop新的子项目。

      2009年9月— 亚联BI团队开始跟踪研究Hadoop

      2009年12月—亚联提出橘云战略,开始研究Hadoop

      2010年5月— Avro脱离Hadoop项目,成为Apache顶级项目。

      2010年5月— HBase脱离Hadoop项目,成为Apache顶级项目。

      2010年5月— IBM提供了基于Hadoop 的大数据分析软件——InfoSphere BigInsights,包括基础版和企业版。

      2010年9月— Hive( Facebook) 脱离Hadoop,成为Apache顶级项目。

      2010年9月— Pig脱离Hadoop,成为Apache顶级项目。

      2011年1月— ZooKeeper 脱离Hadoop,成为Apache顶级项目。

      2011年3月— Apache Hadoop获得Media Guardian Innovation Awards 。

      2011年3月— Platform Computing 宣布在它的Symphony软件中支持Hadoop MapReduce API。

      2011年5月— Mapr Technologies公?#23601;?#20986;分布式文件系统和MapReduce引擎——MapR Distribution for Apache Hadoop。

      2011年5月— HCatalog 1.0发布。该项目由Hortonworks 在2010年3月份提出,HCatalog主要用于解决数据存储、元数据的问题,主要解决HDFS的瓶颈,它提供了一个地方来存储数据的状态信息,这使得 数据清理和归档工具可?#38498;?#23481;易的进行处理。

      2011年4月— SGI( Silicon Graphics International )基于SGI Rackable和CloudRack服务器产品线提供Hadoop优化的解决方案。

      2011年5月— EMC为客户推出一种新的基于开源Hadoop解决方案的数据中心设备——GreenPlum HD,以助其满足客户日益增长的数据分析需求并加快利用开源数据分析软件。Greenplum是EMC在2010年7月?#23637;?#30340;一家开源数据仓库公司。

      2011年5月— 在?#23637;?#20102;Engenio之后, NetApp推出与Hadoop应用结?#31995;?#20135;品E5400存储系统。

      2011年6月— Calxeda公司(之前公司的名字是Smooth-Stone)发起了“开拓者行动”,一个由10家软件公司组成的团队将为基于Calxeda即将推出的ARM系统上芯片设?#39057;?#26381;务器提供支持。并为Hadoop提供低功耗服务器技术。

      2011年6月— 数据集成供应商Informatica发布了其旗舰产品,产品设计初衷是处理当今事务和社会?#25945;?#25152;产生的海量数据,同时支持Hadoop。

      2011年7月— Yahoo!和硅谷风险投资公司 Benchmark Capital创建了Hortonworks 公司,旨在让Hadoop更加鲁棒(可靠),并让企业用户更容易安装、管理和使用Hadoop。

      2011年8月— Cloudera公布了一项有益于合作伙伴生态系统的计划——创建一个生态系统,?#21592;閿布?#20379;应商、软件供应商以及系统集成商可以一起探索如何使用Hadoop更好的洞察数据。

      2011年8月— Dell与Cloudera联合推出Hadoop解决方案——Cloudera Enterprise。Cloudera Enterprise基于Dell PowerEdge C2100机架服务器以及Dell PowerConnect 6248以太网交换机

     

      Hadoop的四大特性(优点)

      1. 扩容能力(Scalable):Hadoop是在可用的计算机集群间分配数据并完成计算任务的,这些集群可用方便的扩展到数以千?#32856;?#33410;点中。

      2. 成本低(Economical):Hadoop通过普通廉价的机器组成服务器集群来分发以及处理数据,以至于成本很低。

      3. 高效率(Efficient)?#21644;?#36807;并发数据,Hadoop可以在节点之间动态并行的移动数据,使得速度非常快。

      4. 可靠性(Rellable):能自动维护数据的多份复制,并且在任务失败后能自动地重新部署(redeploy)计算任务。所以Hadoop的按位存储和处理数据的能力值得人们信赖。

     

      Hadoop的版本

      Hadoop的版本很特殊,是由多条分支并行的发展着。

      1.x:该版本是由0.20.x发行版系列的?#26377;?/p>

      2.x:该版本是由0.23.x发行版系列的?#26377;?/p>

      其实Hadoop也就两个版本1.x和2.x

      Hadoop1.x 指的是:1.x(0.20.x)、0.21、0.22

      Hadoop2.x 指的是:2.x、0.23.x

      注意:高版本不?#27426;?#21253;含低版本的特性

      董的博客中也解释了各个版本的问题:

      Hadoop版本选择?#25945;?/p>

      Hadoop 2.0中的基本术语解释

     

      如何选择Hadoop版本

      当前Hadoop版本比较混乱,让很多用户不知所措。?#23548;?#19978;,当前Hadoop只有两个版本:Hadoop 1.0和Hadoop 2.0,其中,Hadoop 1.0由一个分布式文件系统HDFS和一个离线计算框架MapReduce组成,而Hadoop 2.0则包含一个支持NameNode横向扩展的HDFS,一个?#35797;?#31649;理系统YARN和一个运行在YARN?#31995;?#31163;线计算框架MapReduce。相比于Hadoop 1.0,Hadoop 2.0功能更加强大,且具有更好的扩展性、性能,并支持多种计算框架。

      当我们决定是否采用某个软件用于开源环境时,通常需要考虑以下几个因素:

      1. 是否为开源软件,即是否免?#36873;?/p>

      2. 是否有稳定版,这个一般软件官方网站会给出?#24471;鰲?/p>

      3. 是否经?#23548;?#39564;证,这个可通过检查是否有一些大点的公司已经在生产环境中使用知道。

      4. 是否有强大的社区支持,当出现一个问题时,能够通过社区、论坛等网络?#35797;?#24555;速获取解决方法。


    更多大数据相关资讯敬请关注魔据教育,为您分享最及时的大数据资讯。
    学习大数据敬请关注魔据教育微信二维码。
    魔据教育微信二维码

    【版权与免责声明】如发现内容存在版权问题,烦请提供相关信息发?#22987;?#33267;[email protected],我们将及时?#20302;?#19982;处理。本站内容除非来源注明魔据教育,否则均为网友转载,涉及言论、版权与本站无关。

    全国咨询热线:18501996998,值班手机:18501996998(7*24小时)

    在线咨询:张老师QQ 320169340

    企业合作服务专线:010-82340234-821, 院校合作洽谈专线:010-82340234

    Copyright 2001-2019 魔据教育 - 北京华育兴业科技有限公司 版权所?#26657;?#20140;ICP备17018991号-2

    安徽十一选五开奖号码
  • 排列三走势图乐彩网百度走势图 平特公式 曾道人特码主论谈 湖北11选5一定牛预测 新浪彩票网 河南幸运武林彩票网 360重庆时时彩官网 新疆35选7杀号预测 体育彩票开奖多久过期 今日安徽快三开奖结果 大乐透历史018开奖号码 彩票中奖结果 二肖中特精准资料37期资料 重庆快乐10分o9期开什么 北京赛车图片