本套大数据环境是作者亲手一步步搭建好的直接可用的基于hadoop的大数据环境,系统CentOS7.6,包含三个节点,集成了如下大数据组件:Hadoop2.7.7,Hive2.3.4,Zookeeper3.4.10,Kafka2.1.0,Flume1.8.0,Hbase2.1.1,Spark2.4.0等。
考虑到很多朋友刚入门Hadoop大数据,学习或工作中时间紧张不想花太多时间在环境的搭建和配置上,在这里我免费将这套搭建好环境的集群的镜像文件直接送给大家,可以直接拷到你的电脑用vmware打开使用就行了。
!!!百度云下载地址:
链接:https://pan.baidu.com/s/1bLYb9vtyjmrCGk_FpLmd1Q 密码:e3so
我们实际上是建议新手自己手把手搭建一遍,这样才能深入学习到其中的知识,于是我将自己搭建这个大数据环境的整个过程、完整步骤,在我的博客上另发布了一篇文章,想自己去亲手搭建的可以参考我的这篇博客《大数据环境搭建步骤详解(Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等安装与配置)》。
当然不想费力亲手搭,想直接用的话请继续往下看一些注意事项!!!
用vmware直接打开每个节点之前,你可能要注意一下你的vmware虚拟网NAT模式设置是否和我一样,毕竟vmware的网络配置自然和你打开的每个节点的ip是需要对应的。So,你的vmware的NAT模式需要和我配置成一样然后就可以直接打开这套大数据环境使用啦,简单下面几步搞定!
你需要对你的vmware虚拟网络NAT模式简单做如下几个设置:
网络配置好后你就可以把三个节点打开了,还要注意我在我的vmware中给每个节点应该是分配了2G的内存,你根据你的电脑配置可以在你的vmware里修改,但最好每个节点别低于1G内存。
OK ! 配置好你的vmware后,接下来你就直接打开每个节点就可以使用这套大数据环境了,哦对了,节点用户名和密码应该是root,123456。
如果你想要了解这套环境的搭建配置的细节和简单使用,可以直接去我的博客上那篇文章上细看:《大数据环境搭建步骤详解(Hadoop,Hive,Zookeeper,Kafka,Flume,Hbase,Spark等安装与配置)》。
建议大家参照博客亲手搭一遍尤其对新手来说可以学到很多。当然想要免去配置环境的烦扰直接享用我搭好的也是阔以的哈哈!大家可以关注以后我还会定期分享一些资源,其实我觉得搞IT很多东西大家一起开源分享才可以共同学习提升。。。
有问题欢迎大家交流,我去踢球了拜拜👋