在运行spark程序时,报java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.错误,如下图: 在网上搜了很多解决方案,结果都没有解决,最后,发现是因为spark下载的版本与hadoop版本不一致,所以要解决这个问题,只需要看一下你的hadoop版本是多少,例如我这里是2.6.0 那你下载spark http://spark.apache.org/downloads.html的时候就需要下载对应版本的, 然后配置spark jar包就可以了,我用的是IntelliJ IDEA,file->Project Structure->选中‘+’号 -> java->找到下载的jar包路径->ok 就可以了 希望可以帮到你哦~