当前位置: 首页>移动开发>正文

Clickhouse 超时时间Mysql clickhouse 查询超时

前置结论:

1、chproxy只能通过http和https的方式进行访问clickhouse, 暂时不能通过mysql协议的方式.

官方: chproxy 是否支持 ClickHouse 的 Native 协议?
答: 不支持,应为我们所有的所有的应用只通过 HTTP 协议与 ClickHouse 通讯。可能会在未来增加对 Native 协议的支持。

2、测试如果出现异常,很有可能是并发数或执行时间太长造成的.

(由于各种原因,ClickHouse 的最大执行时间、最大并发语句可能会超过 max_execution_time 和max_concurrent_queries 的限制:
max_execution_time 可能会因为当前实现的缺陷而被超过。
max_concurrent_queries 只针对每个节点的限制。如果是在集群节点上,是没法限制集群整体的并发查询数量。)

官方介绍: https://www.chproxy.org/cn

在clickhouse集群中,每一台机器都是单独的实例,我们可以使用其中的一台作为查询机器。此时如何更好的完成负载均衡是我们所关注的,chproxy即是这么一个工具。

Chproxy, is an http proxy and load balancer for ClickHouse database.

chproxy的优势

1、原生clickhouse集群的缺点

  • ck通过本地表和分布式表来完成分布式查询与写入,这就导致语句执行初始数据库节点(配合zk进行协调处理操作)进行数据下发时产生大量的网络带宽消耗;
  • 对于分布式表的写入,数据会先在分布式表所在的机器进行落盘,然后异步的发送到本地表所在机器进行存储,中间没有一致性的校验,存在数据一致性风险;
  • 对于分布式表的写入,分布式表所在机器时如果机器出现down机,会存在数据丢失风险;
  • 某些场景下,使用原生分布式表,会导致分片节点上数据写入分布不均匀;
  • 谨慎使用on cluster的SQL,目前该语法还不是很完善,某些情况下会导致SQL hang住的情况;
  • 对于分布式表的使用,建议只再个别节点创建,专门用来进行分布式查询操作;

2、chproxy的优化

  • 直接通过chproxy进行轮询路由,将数据直接写入本地表,避免原生分布式表可能会产生的数据一致性、数据丢失的风险;
  • 直接通过chproxy进行轮询路由,避免多分片表节点数据分布不均;
  • 直接通过chproxy进行轮询路由,避免语句执行初始数据库节点进行数据下发时,产生的成倍的网络带宽消耗;
  • chproxy可将ck集群划分为多个逻辑集群,不同逻辑集群按需进行配置(不同逻辑指定CK集群内指定节点,将数据写入、查询进行逻辑上的隔离,避免资源影响干扰等)
  • 在Chproxy上层挂在负载均衡,可做到chproxy层面的高可用,也可横向扩展业务能力
  • 对逻辑用户进行查询、访问、安全等限制;
     

chproxy作用

Clickhouse 超时时间Mysql clickhouse 查询超时,Clickhouse 超时时间Mysql clickhouse 查询超时_linux,第1张

解析:从上层来看,构建了多个chproxy实例,使用LB来完成不同chproxy的访问均衡。针对ch集群,读操作是在分布表上,并且为其赋予readonly的账户。底层使用复制表存储数据,可通过replica写本地表。

数据应该写分布式表还是直接写本地表?

分布式表只用来读,而写入只写本地表。写分布式表好处是可以通过ch的分布表能力完成数据分发,包括随机分发或者指定hash值分发等,这样最终机器的数据分布大体上一致。特别通过hash值将某个组合列的数据分发到同一台数据,在使用查询时我们可以直接使用本地表进行联查join等操作,此时查询的效率会有较高的提升。(不过此处如果扩容,也会有一定的问题,感兴趣的可以一起讨论这个问题,什么样的hash最好,一致性hash可以解决这个问题么?)

分布表写入会出现一些问题,导致负载等升高,笔者就遇到过19.9版本分布式表写入会导致内存升高且不下降的问题,最终会被系统kill掉。

       使用本地表写有很多种方式,可以自己写均衡模式,分别向集群中不同机器写数据,也可以通过外部的负载均衡来写入本地表,这种方式带来的弊端是有可能导致数据不均匀。当然如果数据量比较大,且每次写入的数据量差距不大,那这种方式就比较好了

如何使用chproxy

第一步: 下载chproxy,可以直接在下方引文中下载,也可以通过命令下载:

$ mkdir -p /data/chproxy
$ cd /data/chproxy
$ wget https://github.com/Vertamedia/chproxy/releases/download/v1.14.0/chproxy-linux-amd64-v1.14.0.tar.gz
$ tar -xzvf chproxy-*.gz

目录结构:

|-- cache
|   |-- longterm
|   |   `-- cachedir
|   |       |-- 6b0533288f9a1f93023110b8cfa9b921
|   |       `-- 6d9798e2b0a16f6b841d9f6fd786a038
|   `-- shortterm
|       `-- cachedir
|-- chproxy
|-- config
|   `-- config.yml
|-- logs
|   `-- chproxy.out
`-- startup.sh

第二步: 配置chproxy:

log_debug: false                                                    # debug日志
hack_me_please: true

# cache设置,可设置长期缓存或者短期缓存,按组区分
caches:                                                             # 缓存设置
  - name: "longterm"
    dir: "/home/work/tools/chproxy/cache/longterm/cachedir"
    max_size: 100Gb
    expire: 1h
    grace_time: 60s

  - name: "shortterm"
    dir: "/home/work/tools/chproxy/cache/shortterm/cachedir"
    max_size: 1000Mb
    expire: 15s

# 网络白名单组,按组区分(只有这些网络可以访问chproxy)
network_groups:                                                     # 白名单组,可设置多个白名单组         
  - name: "cluster_online"
    networks: ["10.173.1.0/24","10.173.2.0/24","10.173.3.0/24"]

  - name: "cluster_offline"
    networks: ["10.12.1.0/24"]

# 参数设置,按组区分
param_groups:                                                       # 参数组,可设置多个参数
  - name: "cron-job"
    params:
      - key: "max_memory_usage"
        value: "20000000000"

      - key: "max_bytes_before_external_group_by"
        value: "20000000000"

  - name: "web_param"                                                 
    params:
      - key: "max_memory_usage"
        value: "5000000000"

      - key: "max_columns_to_read"
        value: "30"

      - key: "max_execution_time"
        value: "30"

# chproxy server相关设置,一般分为http、https、metrics
server:
  http:
    listen_addr: ":8090"                                            # chproxy 服务监听端口
    allowed_networks: ["cluster_offline", "cluster_online"]          # 允许访问chproxy服务白名单
    read_timeout: 5m
    write_timeout: 10m
    idle_timeout: 20m

  metrics:
    allowed_networks: ["cluster_offline", "cluster_online"]          # 暴露给prometheus使用的白名单

# 设置chproxy用户,按组区分
users:
  - name: "dev"                                                    # chproxy 用户名
    password: "dev******"                                            # chproxy 密码
    to_cluster: "offline_suzhou_bigdata01"                         # 用户可访问的cluster名称(这里要跟下面clusters的name名称一致)
    to_user: "admin"                                                # chproxy用户对应的ck用户(这里跟下面clusters的users下name一致)
    deny_http: false                                                # 是否允许http请求
    allow_cors: true                                                
    requests_per_minute: 20                                         # 限制该用户每分钟请求次数
    cache: "shortterm"                                             # 使用缓存,若使用缓存,查询优先走缓存,而不是按照规则轮询
    params: "cron-job"                                             # 应用“web”指定的参数集
    max_queue_size: 100                                             # 最大队列数    
    max_queue_time: 35s                                             # 队列最大等待时间

  - name: "default"                                                 # chproxy 用户
    to_cluster: "online_alluxio_cluster_10shards_2replicas"         # 不同的chproxy用户,可对应不同的cluster集群
    to_user: "admin"
    allowed_networks: ["cluster_offline", "cluster_online"]         # 这里直接添加ip貌似不行, "10.224.1.100", "10.224.1.102"
    max_concurrent_queries: 50
    max_execution_time: 1m
    deny_https: false
    deny_http: false
    cache: "longterm" 
    params: "web_param"

# 逻辑集群设置,按组区分
clusters:
  - name: "offline_suzhou_bigdata01"                                    # chproxy 集合名称
    scheme: "http"                                                  # 请求类型,只支持http/https
    nodes: ["suzhou-bigdata01.domain.com:8123"]            # 集群可访问clickhouse节点,http使用端口默认为8123,https使用端口默认为8443,查看ck服务的config.xml配置文件查询
    heartbeat:                                                      # 集群内部心跳检测定义
      interval: 1m
      timeout: 30s
      request: "/?query=SELECT%201%2B1"
      response: "2\n"
    kill_query_user:                                                # 达到上限自动执行kill用户
      name: "default"
      password: ""
    users:
      - name: "admin"                                                 # 集群对应clickhouse用户信息
        password: "yyy**********"
        max_concurrent_queries: 10
        max_execution_time: 1m

  # 多副本集群的配置
  - name: "online_alluxio_cluster_10shards_2replicas"                 # chproxy 集群2名称,可从逻辑上定义多个集群
    scheme: "http"   # 只支持http和https两种, 目前不支持mysql的tcp协议
    replicas:                                                         # 集群可访问clickhouse的cluster的副本节点配置,这里两个副本
      - name: "replica1"
        nodes: ["bigdata-work1.domain.com:8123", "bigdata-work2.domain.com:8123", "bigdata-work3.domain.com:8123", "bigdata-work4.domain.com:8123", "bigdata-work5.domain.com:8123"]
      - name: "replica2"
        nodes: ["bigdata-work2.domain.com:8123", "bigdata-work3.domain.com:8123", "bigdata-work4.domain.com:8123", "bigdata-work5.domain.com:8123", "bigdata-work1.domain.com:8123"]
    users:
      - name: "admin"
        password: "xxx**********"
        max_concurrent_queries: 30
        max_execution_time: 1m

 配置详情见:官方地址 , 详情2

 第三步: 脚本启动

#!/bin/bash
#cd $(dirname)

ps -ef | grep chproxy | grep -v grep | awk '{print }' | xargs kill -9

nohup ./chproxy -config=./config/config.yml >> ./logs/chproxy.out 2>&1 &

第四步: 测试

1) 直接通过ch实例访问数据:
echo 'SELECT * from system.clusters limit 5' | curl 'http://bigdata-work1.domain.com:8123/?user=admin&password=*****' --data-binary @-

2)通过proxy代理访问数据:
echo 'SELECT * from system.clusters limit 10' | curl 'http://bigdata-work19.domain.com:8090/?user=dev&password=*****' --data-binary @-

配置监控

通过prometheus和grafana进行监控

1、安装prometheus

1)、下载安装

tar xf prometheus-2.21.0.linux-amd64.tar.gz -C /usr/local

2) 配置

vim prometheus.yml

- job_name: "clickhouse-chproxy"
    static_configs:
      - targets: ["domain-work19.domain.com:8090"]

3) 启动服务

./prometheus &

2、安装grafana

1) 安装

tar xf grafana-7.1.5.linux-amd64.tar.gz -C /usr/local

2) 启动服务:

./grafana-server &

3) 配置datasource

Clickhouse 超时时间Mysql clickhouse 查询超时,Clickhouse 超时时间Mysql clickhouse 查询超时_缓存_02,第2张

保存即可

4) import 模版

 

Clickhouse 超时时间Mysql clickhouse 查询超时,Clickhouse 超时时间Mysql clickhouse 查询超时_缓存_03,第3张

Clickhouse 超时时间Mysql clickhouse 查询超时,Clickhouse 超时时间Mysql clickhouse 查询超时_缓存_04,第4张

模版json内容:

https://github.com/ContentSquare/chproxy/blob/master/chproxy_overview.json

 点击load 即可.

测试:

Clickhouse 超时时间Mysql clickhouse 查询超时,Clickhouse 超时时间Mysql clickhouse 查询超时_架构_05,第5张

 

配置信息注意点:

1)用户配置

  • chproxy中定义了两种类型的用户:in-users、out-users
  • in-users是指chproxy中逻辑上定义的用户,out-users是指ck中真实创建的用户
  • 1个out-users可以对应1个或多个in-users,一些查询的限制如最大并发、最差查询时间等可以在out-users层做限制

2)集群设置

  • chproxy集群可设置1个或多个逻辑集群,每个逻辑集群必须包含一个名称和节点列表、或者副本节点列表
  • 对集群节点、副本节点之间的请求采用的是 round-robin + least-loaded 的均衡方式
  • 如果在近期对某个节点请求不成功,该节点在很短的时间间隔内优先度会被自动降低。这意味着 chproxy 在每次请求中,会自动选择副本负载最小的健康节点
  • 集群内部可通过心跳检测来检查各个节点的可用性,业务请求的路由会自动排除不可用节点
  • 集群可通过kill_query_user的设置,自动kill掉达到 max_execution_time 限制的查询
  • 若集群没有指定用户,默认使用default用户

3)缓存设置

  • chproxy支持配置缓存设置,有利于加快查询速率
  • 缓存可大致分为长期缓存和短期缓存
  • 添加缓存后,请求会优先通过缓存查询返回结果集,一定程度上会看似各个请求路由不均衡,但是不影响整体的集群性能

4)安全设置

  • hack_me_please默认情况下启动安全检查
  • 可配置访问对象白名单
  • 支持https
     

 


https://www.xamrdz.com/mobile/4us1962798.html

相关文章: