初次接触dubbo架构与zk

  1. dubbo架构节点说明
    1. Provider: 暴露服务的服务提供方
    2. Consumer: 调用远程服务的服务消费方
    3. Registry: 服务注册与发现的注册中心
    4. Monitor: 统计服务的调用次数和调用时间的监控中心
    5. Container: 服务运行容器
      这里写图片描述
      这里写图片描述
  2. zookeeper/conf/zoo_sample.cfg
    1. 安装zookeeper
    2. 解压 进入目录 创建logs日志文件夹以及data数据文件夹
    3. conf/, copy一份zoo_sample.cfg文件,名称为zoo.cfg,进行修改配置
    4. /etc/profile 下, 配置zookeeper环境变量
dataDir=/usr/local/zookeeper/data //数据保存目录
dataLogDir=/usr/local/zookeeper/logs //日志保存目录
clientPort=2181 //客户端端口
#maxClientCnxns=60
# http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
#autopurge.snapRetainCount=3
# Purge task interval in hours
# Set to "0" to disable auto purge feature
#autopurge.purgeInterval=1
server.1=provider-service:2888:3888 // provider-service是ip,配置在了/etc/hosts内
// server.1 表示第一个服务,2888是zookeeper服务之间通信的端口,3888是zookeeper与其他应用程序服务的端口, 此处几个服务就创建几个server.数字
  1. 配置好环境变量后, 启动: zkServer.sh start 停止: zkServer.sh stop
  2. 服务信息会在zookeeper/bin/zookeeper.out文件中. tail 命令查看该文件的最新信息
  3. 使其开机自启动,可以编辑/etc/rc.local文件
    如下命令: -c ‘/etc/local/zookeeper/bin/zkServer.sh start’ 即可
    这里写图片描述
    1. 集群失效的条件:超过半数服务器挂掉
    2. 集群中的每台ZK server都会有一个用于惟一标识自己的id,有两个地方会使用到这个id:myid文件和zoo.cfg文件中。myid文件存储在dataDir目录中,指定了当前server的server id。在zoo.cfg文件中,根据server id,配置了每个server的ip和相应端口。Zookeeper启动的时候,读取myid文件中的server id,然后去zoo.cfg 中查找对应的配置。
    3. 在zk的dataDir文件下 有myid version 以及pid
    4. 暂时发现 环境变量可以不用配置(如果一个服务器有多个zk的话)
    5. zk.out 在bin目录下,通过 zkServer.sh status 或者jps查看该zk的启动状态以及身份
    6. 6.
相关文章
相关标签/搜索