hive 依赖 hadoop
需要的软件包: hive-0.13.1-cdh5.3.6.tar.gz hadoop-2.5.0-cdh5.3.6.tar.gz
1hadoop 的安装步骤请访问:
http://www.cnblogs.com/xningge/articles/8433297.html
2 将 hive 软件包上传到 Linux 系统指定的目录:/opt/softwares/cdh
3 解压 hive-0.13.1-cdh5.3.6.tar.gz 到指定的目录:/opt/modules/cdh/
tar -zxvf hive-0.13.1-cdh5.3.6.tar.gz -C /opt/modules/cdh/
4 重命名 hive-env.sh (去掉. template)
- HADOOP_HOME=/opt/modules/cdh/hadoop-2.5.0-cdh5.3.6
- export HIVE_CONF_DIR=/opt/modules/cdh/hive-0.13.1-cdh5.3.6/conf
5 重命名 hive-site.xml (去掉. template, 修改为 site)
- <property>
- <name>javax.jdo.option.ConnectionURL</name>
- <value>jdbc:mysql://hadoop01.xningge.com:3306/cdhmetastore?createDatabaseIfNotExist=true</value>
- </property>
- <property>
- <name>javax.jdo.option.ConnectionDriverName</name>
- <value>com.mysql.jdbc.Driver</value>
- </property>
- <property>
- <name>javax.jdo.option.ConnectionUserName</name>
- <value>xningge</value>
- </property>
- <property>
- <name>javax.jdo.option.ConnectionPassword</name>
- <value>???</value>
- </property>
** 注意: 模板文件有一个 bug, 在 hive-site.xml 的 2781 行少了一个 < property > 开始标记
6 重命名 hive-log4j.properties (去掉. template)
$ mkdir logs
** 修改 hive-log4j.properties
hive.log.dir=/opt/modules/cdh/hive-0.13.1-cdh5.3.6/logs
7 拷贝 jdbc driver
** 将驱动文件复制到 lib/
$ cp /opt/software/mysql-connector-java-5.1.27-bin.jar lib/
8 切换到 CDH Hadoop 目录, 建立目录, 并修改权限
** /user/hive/warehouse 为 Hive 存放数据的目录
- $ bin/hdfs dfs -mkdir -p /user/hive/warehouse
- $ bin/hdfs dfs -chmod g+w /user/hive/warehouse
- $ bin/hdfs dfs -chmod g+w /tmp
9 启动客户端使用 Hive
eg: 把 profile 里 HIVE_HOME 注解掉 (如果有配置这个全局变量的话, 则注释)
- $ bin/hive
- hive> show databases;
来源: https://www.cnblogs.com/xningge/p/8433792.html