Centos7.5安装Impala
一、安装包准备
1.1、Impala下载地址
http://archive.cloudera.com/beta/impala-kudu/redhat/7/x86_64/impala-kudu/0/RPMS/x86_64/
1.2、impala依赖下载地址
http://archive.cloudera.com/cdh5/redhat/7/x86_64/cdh/5.9.0/RPMS/noarch/
1.3、Impala其他依赖
cyrus-sasl-plain lsb
由于lsb依赖过多,需要在内网配置一个本地yum源;且大数据平台需要配置一个统一ntp时间同步服务器;
1.4、将下载好的rpm包上传服务器
二、实施安装
(hadoop,hive集群已安装好,且正常启动状态)
2.1、安装其他依赖
cyrus-sasl-plain lsb ntp服务,如果ntp服务单独在整个大数据平台安装,此处就不需要安装
yum install -y cyrus-sasl-plain lsb (主从节点)
2.2、安装rpm包
主节点:
sudo rpm -ivh bigtop-utils-0.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.30.el7.noarch.rpm
sudo rpm -ivh impala-kudu-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm –nodeps
sudo rpm -ivh impala-kudu-catalog-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm
sudo rpm -ivh impala-kudu-server-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm
sudo rpm -ivh impala-kudu-state-store-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm
sudo rpm -ivh impala-kudu-shell-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm
sudo rpm -ivh impala-kudu-udf-devel-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm
从节点:
sudo rpm -ivh bigtop-utils-0.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.30.el7.noarch.rpm
sudo rpm -ivh impala-kudu-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm –nodeps
sudo rpm -ivh impala-kudu-server-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm
sudo rpm -ivh impala-kudu-shell-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm
sudo rpm -ivh impala-kudu-udf-devel-2.7.0+cdh5.9.0+0-1.cdh5.9.0.p0.11.el7.x86_64.rpm
三、配置impala
3.1、配置bigtop-utils
vim /etc/default/bigtop-utils(主从节点)
3.2、配置impala
/etc/default/impala(主从节点)
IMPALA_CATALOG_SERVICE_HOST=infobeat-web #infobeat-web为impala主节点域名
IMPALA_STATE_STORE_HOST=infobeat-web #infobeat-web为impala主节点域名
3.3、整合hdfs和hive
配置impala的conf文件(主从节点)
把hadoop配置文件core-site.xml和hdfs-site.xml,以及hive配置文件hive-site.xml拷贝到/etc/impala/conf.dist/目录下
同时编辑core-site.xml、hdfs-site.xml配置文件,在原有基础上追加如下修改:
#hdfs-site.xml
<!–impala configuration –>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.block.local-path-access.user</name>
<value>impala</value>
</property>
<property>
<name>dfs.client.file-block-storage-locations.timeout.millis</name>
<value>60000</value>
</property>
<property>
<name>dfs.domain.socket.path</name>
<value>/var/run/hadoop-hdfs/dn._PORT</value> #hadoop-hdfs手动创
</property>
# core-site.xml
<!–impala configuration –>
<property>
<name>dfs.client.read.shortcircuit</name>
<value>true</value>
</property>
<property>
<name>dfs.client.read.shortcircuit.skip.checksum</name>
<value>false</value>
</property>
<property>
<name>dfs.datanode.hdfs-blocks-metadata.enabled</name>
<value>true</value>
</property>
3.4、重启hadoop集群
stop-all.sh
3.5、设置scoket path
在目录/var/run/目录下新建目录hadoop-hdfs(主从节点)
注意:该文件夹可能已经存在,应当确认用impala是否有权限进行读写。如果已经存在,将用户impala加入该文件所属的组,并修改该文件组的权限即: chown -R 775 hadoop-hdfs/
[root@hadoop]# cd /var/run/ #进入目录/var/run/
[root@hadoop]#mkdir hadoop-hdfs #创建目录hadoop-hdfs文件夹
[root@hadoop]# chown -R 775 hadoop-hdfs/ #设置权限
3.6、权限配置
如果想要impala和yarn合作,需要把impala用户加入hdfs组(主从节点);
impala在执行drop table操作时,需要把文件移到到hdfs的回收站,所以需要创建一个hdfs的目录/user/impala,并将其设置为impala用户可写。
同样,impala需要读取hive数据仓库下的数据,故需要把impala用户加入hive组。
[root@hadoop]#usermod -G hdfs,hadoop impala
[root@hadoop]# groups impala
impala:impala hdfs hadoop
另:创建impala在hdfs上的目录并设置权限
[root@hadoop]$ hadoop fs -mkdir -p /user/impala
[root@hadoop]$ hadoop fs -chown impala /user/impala
3.7、添加mysql驱动
在/var/lib/impala/目录下面添加mysql驱动jar
四、启动impala
4.1、启动主节点
[root@hadoop]# service impala-state-store restart
[root@hadoop]# service impala-catalog restart
[root@hadoop]# service impala-server restart
4.2、启动从节点
[root@hadoop]# service impala-server restart
4.3、服务验证
注意:
1、因为impala安装需要root权限,所以可以给hadoop用户添加sudo权限
gpasswd -a hadoop wheel #root执行
————————————————
版权声明:本文为CSDN博主「火树银花之处」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/zcf1319/article/details/106085599/