开源大数据集群部署(二十)Trino部署

云的事随心讲 2024-04-15 21:17:25

作者:櫰木

1 解压trino的包到opt目录cd /root/bigdatatar -xzvf trino-server-389.tar.gz -C /opt/ln -s /opt/trino-server-389 /opt/trino2 创建trino用户,并配置专属jdk11useradd trinosu – trinochown -R trino:hadoop /opt/trino-server-389

每台节点生成keytab文件

bash /data/kerberos/getkeytabs.sh /etc/security/keytab/trino.keytab trino

添加环境变量

su - trino vim ~/.bashrcexport JAVA_HOME=/opt/zulu11.60.19-ca-jdk11.0.17-linux_x64export JRE_HOME=$JAVA_HOME/jreexport PATH=$JAVA_HOME/bin:$PATHexport CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib/rt.jar export TRINO_HOME=/opt/trinoexport PATH=$TRINO_HOME/bin:$PATHsource ~/.bashrc验证java版本

3 定义配置文件

cd /opt/trino/etc

jvm配置

vim jvm.config-server-Xmx4G-XX:InitialRAMPercentage=80-XX:MaxRAMPercentage=80-XX:G1HeapRegionSize=32M-XX:+ExplicitGCInvokesConcurrent-XX:+ExitOnOutOfMemoryError-XX:+HeapDumpOnOutOfMemoryError-XX:-OmitStackTraceInFastThrow-XX:ReservedCodeCacheSize=512M-XX:PerMethodRecompilationCutoff=10000-XX:PerBytecodeRecompilationCutoff=10000-Djdk.attach.allowAttachSelf=true-Djdk.nio.maxCachedBufferSize=2000000-XX:+UnlockDiagnosticVMOptions-XX:+UseAESCTRIntrinsics-Dsun.security.krb5.debug=true-Dlog.enable-console=true-Dlogback.configurationFile=/opt/trino/etc/trino-ranger-plugin-logback.xml-javaagent:/opt/prometheus/jmx_prometheus_javaagent-0.12.0.jar=9550:/opt/prometheus/trino-prometheus.yml

Coordinator 的config配置

cat config.properties# 该节点是否作为coordinatorcoordinator=true# coordinator是否同时作为worker节点node-scheduler.include-coordinator=false# http连接端口http-server.http.port=18080# 所有节点查询可以使用的最大内存和query.max-memory=3GB# 单个节点查询可以使用的最大用户内存query.max-memory-per-node=1024MB# 服务发现的地址discovery.uri=http://hd1.dtstack.com:18080

work节点config配置

# 该节点是否作为coordinatorcoordinator=false# http连接端口http-server.http.port=18080# 所有节点查询可以使用的最大内存和query.max-memory=4GB# 单个节点查询可以使用的最大用户内存query.max-memory-per-node=1024MB# 服务发现的地址discovery.uri=http://hd1.dtstack.com:18080

节点配置node.properties

cat node.properties

# 集群所有节点环境名称必须一样node.environment=trino_cluster# UUID, 36个16进制数字, 每个节点的都不一样, 默认随机生成, 设置固定值在集群升级时可以保持和原来的一致node.id=9df13f5a-eae8-4e55-9ad6-9dc5f86eb74c# 日志文件和数据文件储存目录node.data-dir=/data/trino-server/varuuid生成方式可以通过uuidgen命令进行生成。创建数据目录 mkdir -p /data/trino-server/var3 启动应用/opt/trino/bin/launcher start

查看端口是否启动成功

ss -tunlp | grep 18080

查看web页面

4 对接hive

每个节点都需要配置

mkdir -p /opt/trino/etc/catalogcat hive.propertiesconnector.name=hivehive.metastore.uri=thrift://hd1.dtstack.com:9083hive.config.resources=/opt/hadoop/etc/hadoop/core-site.xml,/opt/hadoop/etc/hadoop/hdfs-site.xmlhive.metastore.authentication.type=kerberoshive.metastore.thrift.impersonation.enabled=falsehive.metastore.service.principal=hive/hd1.dtstack.com@DTSTACK.COMhive.metastore.client.principal=hive/hd1.dtstack.com@DTSTACK.COMhive.metastore.client.keytab=/etc/security/keytab/hive.keytabhive.hdfs.authentication.type=KERBEROShive.hdfs.impersonation.enabled=falsehive.hdfs.trino.principal=trino/_HOST@DTSTACK.COMhive.hdfs.trino.keytab=/etc/security/keytab/trino.keytab5 运行测试

trino-cli需要手动去官网下载。

trino-cli --server hd1.dtstack.com:18080 --catalog=hive --schema=test

更多技术信息请查看云掣官网

0 阅读:0

云的事随心讲

简介:感谢大家的关注