2020-03-12linux安装idea、maven、scala配置

我还是败了。。。win下的maven一直想弄死我,我就去linux了。

在centos桌面上创建快捷方式:
https://blog.csdn.net/qq_40741855/article/details/97917010?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

关于idea2019.3.3破解
有个jetbrains-agent,直接把jar包拖进idea再重启就成了,这也太爽啦。

idea的scala配置
settings里面plugins搜scala插件下载
maven配置
先改好/etc/profile 的环境变脸,再source一下让他生效,建个仓库,记住路径,(md笔记本键盘敲起来真不爽)再改一下settings。xml(在conf里),本地仓库和mirror改一下。
用阿里云仓库

export M2_HOME=/usr/local/maven/apache-maven-3.6.3
export M2=$M2_HOME/bin
export PATH=$M2:$PATH

/usr/local/maven/apache-maven-3.6.3
/usr/local/maven/mavenrepo

<localRepository>/usr/local/maven/mavenrepo</localRepository>

    <mirror>
        <id>aliyunmaven</id>
        <mirrorOf>*</mirrorOf>
        <name>aliyun maven</name>
        <url>https://maven.aliyun.com/repository/public</url>
    </mirror>
    
[Desktop Entry]
Name=IntelliJ IDEA
Comment=IntelliJ IDEA
Exec=/opt/idea/idea-IU-193.6494.35/bin/idea.sh
Icon=/opt/idea/idea-IU-193.6494.35/bin/idea.png
Terminal=false
Type=Application
Categories=Developer;

在idea上maven成功了。。。


可以实现

一开始报jvm内存不够的问题。
在这里修改


image.png

image.png

-Xms256m -Xmx1024m

千万注意spark和scala的版本要对应起来。我在win和linux都没对应好。。。所以报错很多。

spark。2.4.4 对应的scala是2.11.12

2020-3-14

安装kettlehttps://www.cnblogs.com/tjp0210/p/11764394.html
https://sourceforge.net/projects/pentaho/files/Data%20Integration/


安装xmanager:https://www.newasp.net/soft/467373.html

↑↑记得关防火墙


https://blog.csdn.net/u012475575/article/details/82870727?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

打开spoon.sh时报错,没有libwebktgtk包:https://www.linuxidc.com/Linux/2016-06/132101.htm
先在CentOS或RHEL上安装Nux Dextop仓库:
https://www.linuxidc.com/Linux/2016-06/132101.htm


这个装起来好慢啊。。


image.png

出现了,一开始不能右键的原因是:没有吧hadoop里的hdfs配置文件弄到kettle里面去

启动hdfs了,再test。start-all.sh或者start-dfs.sh
报错:ojava.io.IOException: Cannot run program "lsb_release": error=2, 没有那个文件或目录
就是需要yum -y install redhat-lsb来解决。

image.png

还是有个erro

报错:ERROR [KarafLifecycleListener] The Kettle Karaf Lifecycle Listener failed to execute properly after waiting for 100 seconds. Releasing lifecycle hold, but some services may be unavailable

右键不成功,鼠标点几下就很卡!!
我觉得是因为内存不够的关系。。。
怎么办呢
换个ETL工具?

image.png

曹乐,我在linux界面直接打开了右键真的是,今天装了个xmanager图啥呢


image.png

2020-3-16

报错:System memory 425197568 must be at least 471859200. Please increase heap size using the --driver-memory option or spark.driver.memory in Spark configuration.
设置-Xms256m -Xmx1024m
怎么每个程序都要来一边。。

image.png

spark-submit打印的信息太多,看不到输出结果:
https://blog.csdn.net/jiezou12138/article/details/88876960?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

安装nodejs:https://blog.csdn.net/qq_31708763/article/details/82690129

image.png

突然xshell连不上虚拟机 了,震惊。
今天下午狗又开始叫了。我打开了窗户!!!找到你们了!两只狗,玛德,tmd小狗这么会叫,人家遛狗路过一下你也要叫,真特么烦。

xshell、连上了哈哈哈哈,为啥呢
上午win提醒我系统要更新,原来是1803?好像是,现在是1909了,一开机,提示说vm ware可能用不了,要升级到15.5(我看网上说)。装的是14.1.3?的vmware,结果在控制面板里把查看已安装更新,从上往下删,删一个,重启一次,发现就能打开vmware了,xshell也连得上,也能ping、通了。

安装express框架

https://blog.csdn.net/twodogya/article/details/80182328

安装jade:

https://blog.csdn.net/niewq/article/details/80297853
如果出现找不到jade的报错,就npm install jade --save在那个项目文件下

2020-3-17

又打不开vm了。。。。还是安一个15.5的vmware把。先把原来的卸载:https://blog.csdn.net/Zs0509/article/details/90244569

重新装了vm15.5.1:
一开始安装不了,只要把exe名字改掉就行,还是不行就重启一下吧,把后台vm的程序都关了就行,重启简单一点。
无法获取 vmci 驱动程序版本句柄无效解决办法:
https://jingyan.baidu.com/article/a3a3f811ea5d2a8da2eb8aa1.html
就可以打开了。

You出问题了。。连不上网,要配置网卡。

本机

image.png

image.png

虚拟机这里
image.png

在重启一下网卡
systemctl restart network
image.png

虚拟机内存不够了。。。
于是我去win上面装了kettle。。。反正在哪清洗数据不是清洗嘛
遇到了spoon.bat闪退的情况。
https://bbs.csdn.net/topics/392400324
看这个,↑,改掉spoon.bat里面俩参数就行


我失败了,还是去master虚拟机里面扩容了(因为装kettle的时候说内存不够了)https://blog.csdn.net/Areigninhell/article/details/90403009
挂载点在/disk4上面,我就把kettle文件夹放到disk4了

还是不行。。test失败。shim不能loed。。突然发现,权限不够?!!!!!!!11
果然是因为权限的关系。
sudo 打开./spoon.sh tmd!!!!!!!!!!


haishiyou

还是有问题,清理个数据怎么这么麻烦。python写都没这么麻烦

image.png

玛德,把hostname改成主机名了才√了一个

行了,我差不多已经死了,随便他了,等会看看能不嫩传输局

kettle安装配置可能会出现的一些问题:https://blog.csdn.net/weinierzui/article/details/77931346
https://blog.csdn.net/cdmamata/article/details/56846895

hdfs基本命令:[https://blog.csdn.net/sunbocong/article/details/82855506?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task]

jar包冲突:删掉一个https://blog.csdn.net/walykyy/article/details/90124534?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

又出现问题了。。。上传成功,但是没找到这个文件啊。。尴尬


image.png

没存进去:??


image.png

给普通用户root权限:https://blog.csdn.net/weixin_39849189/article/details/80362767

我把

image.png

改了
就√了三个。。
image.png

这玩意旁边那个点点点也能点出来了
image.png

之前选择hdp2.5的时候一直弹窗You don't seem to be getting a connection to the Hadoop Cluster. Check the c
image.png

鬼了,怎么还没传进去、
image.png

有了,我又把start和hadoop copy files删掉又来了一遍,应该是这个原因。yeah~

清洗数据:去掉年份
image.png
[root@master movielens]# hdfs dfs -cat /input_spark/movies.dat | head -5
1::Toy Story::Animation|Children's|Comedy
2::Jumanji::Adventure|Children's|Fantasy
3::Grumpier Old Men::Comedy|Romance
4::Waiting to Exhale::Comedy|Drama
5::Father of the Bride Part II::Comedy
cat: Unable to write to output stream.

。。。就好了。。。kettle没事干了。。。。。

报错:System memory 425197568 must be at least 471859200. Please increase heap size using the --driver-memory option or spark.driver.memory in Spark configuration.
-Xms256m -Xmx1024m
。。尴尬,类名打错了

出来结果了:

Movies recommended for you(用户 ID:推荐电影 ID:推荐分数:推荐电影名称):
1:3233:5.0872846:Smashing Time
1:1930:4.8514404:Cavalcade
1:3512:4.8493347:Return to Me
1:2760:4.8394413:Gambler, Theékos)
1:1131:4.822908:Jean de Florette
1:439:4.7534847:Dangerous Game
1:3517:4.7365184:Bells, The
1:1035:4.7099566:Sound of Music, The
1:2609:4.7043505:King of Masks, TheLian)
1:73:4.702996:Misérables, Les

Process finished with exit code 0
image.png

vim全是黄色方放:esc :nohl


image.png

spark集群运行:https://blog.csdn.net/qq_33689414/article/details/80232605

主要是要之前的jar包删掉就行,再重新生成jar包,spark-submit 就可以了,
image.png

可以看到任务

spark-submit 
--class recommend.MovieLensALS  
--master spark://master:7077 
--executor-memory 1G 
--total-executor-cores 2  ~/IdeaProjects/Spark_Recommend_Dataframe/out/artifacts/Spark_Recommend_Dataframe_jar/Spark_Recommend_Dataframe.jar /input_spark  /disk4/movielens/personalRatings.dat  10 5 10
image.png

也出来了。。就是还是很慢。。。

也就是说,一开始本地跑的时候,要这么写:

val spark=SparkSession.builder().appName("MovieLensALS").master("local[2]").getOrCreate()

生成jar包去跑集群的时候改成master("spark://master:7077")

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,968评论 6 482
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,601评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 153,220评论 0 344
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,416评论 1 279
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,425评论 5 374
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,144评论 1 285
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,432评论 3 401
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,088评论 0 261
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,586评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,028评论 2 325
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,137评论 1 334
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,783评论 4 324
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,343评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,333评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,559评论 1 262
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,595评论 2 355
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,901评论 2 345

推荐阅读更多精彩内容