export LD_LIBRARY_PATH=/usr/lib/hadoop-0.20-mapreduce/lib/native/Linux-amd64-64 <-- HAOOP_HOME/lib/native !-->
当然不是永久的,重启服务器就得重新弄一次,请google linux加环境变量的方法。
网上有说是用java_LABRARY_PATH,不好用。
hadoop hdfs 找不到本地库解决办法
推荐阅读
- 【Hadoop离线基础总结】impala简单介绍及安装部署
- 【Spark】Spark-shell案例——standAlone模式下读取HDFS上存放的文件
- 【Spark】RDD(Resilient Distributed Dataset)究竟是什么?
- 【HBase】表模型和基本操作介绍
- 【Hadoop离线基础总结】Hadoop High Availability\Hadoop基础环境增强
- 【Spark】通过创建DataFrame读取不同类型文件内容
- 【Spark】这一篇或许能让你大概了解如何通过JavaAPI实现DataFrame的相关操作
- 【Spark】一起了解一下大数据必不可少的Spark吧!
- 【Spark】SparkStreaming的容错机制
- 写了shell脚本想一键启动三台虚拟机的Zookeeper,却不知道为啥总是启动不了