博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
大数据学习之Linux环境搭建(导航)
阅读量:4308 次
发布时间:2019-06-06

本文共 700 字,大约阅读时间需要 2 分钟。

环境搭建过程网上有挺多,但在安装过程,难免会出现一些其他错误,所以是对自己在搭建环境过程中的一个记录。

首先是VMware软件的安装,没什么说的,一直“下一步”就好了,虚拟机下安装Linux系统也比较简单,不赘述。

在系统主目录下新建software文件,用以存放大数据学习过程中可能用到的软件:mkdir /software

在系统主目录下新建download文件,用以存放临时安装包: mkdir /download

安装过程中,解压安装包到当前目录,均指/download目录,eg:

tar -zxvf filename.tar.gz

配置环境变量时候,如果对所有用户有效,编辑系统变量/etc/profile

vim /etc/profile

也可以在/etc/profile.d目录下新建bash脚本文件,将语句写入到此脚本中; 需要注意的是,Windows中,环境变量之间是以英文分号;间隔的,而在Linux中是以英文冒号:间隔的, eg:vim /etc/profile.d/bigdata.sh

export JAVA_HOME=/usr/lib/jvm/jdk1.7.0export PATH=$PATH:$JAVA_HOME/bin

如果只针对当前用户有效,编辑用户主目录下的~/.profile文件或者~/.bashrc

vim ~/.profile

之后保存并更新文件:

source /etc/profileorsource ~/.profile

生效。

未完待续。。。

转载于:https://www.cnblogs.com/NexTen/p/7856592.html

你可能感兴趣的文章
大数据学习之路------借助HDP SANDBOX开始学习
查看>>
Hadoop基础学习:基于Hortonworks HDP
查看>>
为什么linux安装程序 都要放到/usr/local目录下
查看>>
Hive安装前扫盲之Derby和Metastore
查看>>
永久修改PATH环境变量的几种办法
查看>>
大数据学习之HDP SANDBOX开始学习
查看>>
Hive Beeline使用
查看>>
Centos6安装图形界面(hdp不需要,hdp直接从github上下载数据即可)
查看>>
CentOS7 中把yum源更换成163源
查看>>
关于yum Error: Cannot retrieve repository metadata (repomd.xml) for repository:xxxxxx.
查看>>
linux下载github中的文件
查看>>
HDP Sandbox里面git clone不了数据(HTTP request failed)【目前还没解决,所以hive的练习先暂时搁置了】
查看>>
动态分区最佳实践(一定要注意实践场景)
查看>>
HIVE—索引、分区和分桶的区别
查看>>
Hive进阶总结(听课总结)
查看>>
大数据领域两大最主流集群管理工具Ambari和Cloudera Manger
查看>>
Sqoop往Hive导入数据实战
查看>>
Mysql到HBase的迁移
查看>>
Sqoop import进阶
查看>>
Hive语句是如何转化成MapReduce任务的
查看>>