本文以ZooKeeper3.4.3版本的官方指南为基础:http://zookeeper.apache.org/doc/r3.4.3/zookeeperAdmin.html,补充一些作者运维实践中的要点,围绕ZK的部署和运维两个方面讲一些管理员需要知道的东西。本文并非一个ZK搭建的快速入门,关于这方面,可以查看《ZooKeeper快速搭建》。
1.部署
本章节主要讲述如何部署ZooKeeper,包括以下三部分的内容:
· 系统环境
· 集群模式的配置
· 单机模式的配置
系统环境和集群模式配置这两节内容大体讲述了如何部署一个能够用于生产环境的ZK集群。如果仅仅是想在单机上将ZK运行起来,进行一些开发与测试,那么第三部分或许是你的菜。
1.1系统环境
1.1.1平台支持
平 台
|
运行client
|
运行server
|
开发环境
|
生产环境
|
GNU/Linux
|
√
|
√
|
√
|
√
|
Sun Solaris
|
√
|
√
|
√
|
√
|
FreeBSD
|
√
|
ⅹ,对nio的支持不好
|
√
|
√
|
Win32
|
√ |
…
阅读全文
作者 王豪迈
块存储,简单来说就是提供了块设备存储的接口。用户需要把块存储卷附加到虚拟机或者裸机上以与其交互。这些卷都是持久的:它们可以从运行实例上被解除或者重新附加而数据保持完整不变。
本文重点介绍块存储服务。我们对目前主流的块存储服务提供商和开源的块存储软件做了一个简要分析,希望能给从事块存储开发的工程师对于块存储一个全局的认识。
下面会先介绍常见的单机块设备工具,以建立对块存储的初步印象。
单机块存储
首先,一个硬盘是一个块设备。内核检测到硬盘后,在/dev/下会看到/dev/sda/。为了用一个硬盘来得到不同的分区来做不同的事,我们使用 fdisk工具得到/dev/sda1、/dev/sda2等。这种方式通过直接写入分区表来规定和切分硬盘,是最死板的分区方式。
1. LVM & Device-mapper
LVM是一种逻辑卷管理器。通过LVM来对硬盘创建逻辑卷组和得到逻辑卷,要比fdisk方式更加弹性。如果你目前对LVM用途还不熟悉或者不大清楚,可参考以下链接:
LVM基于Device-mapper用户程序实现。Device-mapper是一种支持逻辑卷管理的通用设备映射机制,为存储资源管理的块设备驱动提供了一个高度模块化的内核架构。以下链接对Device-mapper架构进行了极好的说明:
2. SAN & iSCSI
在接触了单机下的逻辑卷管理后,你需要了解SAN,目前主流的企业级存储方式。
大部分SAN使用SCSI协议在服务器和存储设备之间传输和沟通,通过在SCSI之上建立不同镜像层,可以实现存储网络的连接。常见的有iSCSI… 阅读全文
来源:http://www.cnblogs.com/jankie/archive/2011/08/22/2149285.html
微软
Windows Server 2003操作系统实现
Kerberos 版本
5的身份认证协议。
Windows Server 2003同时也实现了公钥身份认证的扩展。
Kerberos身份验证的客户端实现为一个
SSP(
security support provider),能够通过
SSPI(
Security Support Provider Interface)进行访问。最初的用户身份验证是跟
Winlogon的单点登录架构集成在一起的。
Kerberos的
KDC(
Key Distribution Center)跟
Windows …
阅读全文
本文主要描述haproxy的安装及简单配置过程。并且应用这个简单的配置做mysql的负载均衡,同时haproxy的配置文件发生变化时我们如何重新启动haproxy程序,并且确定haproxy程序重新启动后对原来已经进行的连接回话的影响情况。
0. 准备工作
为了进行本文的研究,我们需要3台vmware的虚拟机,在每一台虚拟机上,安装centos程序,安装mysql程序, 每一台机器都安装mysql程序。如下图:

m1:192.168.65.81 m2:192.168.65.82 m3:192.168.65.83
1. Haproxy程序的安装
下载并解压缩
wget http://haproxy.1wt.eu/download/1.4/src/haproxy-1.4.9.tar.gz
tar xzvf haproxy-1.4.9.tar.gz
进入解压缩目录,编译并安装程序
make TARGET=linux26 PREFIX=/work/apps/haproxy install
创建配置文件
cd /work/apps/haproxy
mkdir conf
vi conf/haproxy.cfg
编辑文件内容如下:
global
log 127.0.0.1 local0 info #[err warning info debug]… 阅读全文
采用eclipse 的 Kepler Release 版本,创建maven后项目, 出现下面类似的错误信息
Description Resource Path Location Type
CoreException: Could not calculate build plan: Plugin org.apache.maven.plugins:maven-compiler-plugin:2.3.2 or one of its dependencies could not be resolved: Failed to read artifact descriptor for org.apache.maven.plugins:maven-compiler-plugin:jar:2.3.2: ArtifactResolutionException: Failure to transfer org.apache.maven.plugins:maven-compiler-plugin:pom:2.3.2 … 阅读全文
随着工程越来越复杂,项目越来越多,以及平台的迁移(我最近就迁了2回),还有各大市场的发布,自动化编译android项目的需求越来越强烈,后面如果考虑做持续集成的话,会更加强烈。
经过不断的尝试,在ubuntu环境下,以花界为例,我将一步一步演示如何使用命令行,使用ant编译android项目,打包多渠道APK。
要点:
(1). 编译android的命令使用
(2). ant基本应用
(3). 多项目如何编译(包含android library)
(4). 如何多渠道打包
ps:我将以最原始的方式来实现,而不是使用android自带的ant编译方式,并尽量详细解释,这样有益于我们彻底搞懂android打包的基本原理。
1. Android编译打包的整体过程
使用ant,ant的参考文档:http://ant.apache.org/manual/index.html
首先,假设现在已经有这样的一个项目(多工程的,简单的单工程就更简单了):
world
├── baseworld //android library,基础类库,共享于其他主应用
├── floworld //android project,花界应用
├── healthworld //android project,健康视线应用 … 阅读全文
NFS(Network File System)是由升阳(Sun)最先开发,它的目标是让不同机器能够跨平台共享相同的档案资源。简单来说,可以看成是一种远程的文件系统。也因为跨平台 的目标,所以几乎所有的Unix Like平台都支持NFS,如IBM AIX、Sun Solaris、HP Unix、GNU/Linux和FreeBSD等,都可以透过NFS来共享档案和目录资源。目前在MS Windows上虽然有NFS Client可以安装,但几乎是商业软件。 所以大家常在Unix Like系统中使用NFS来共享档案资源。或许读者会奇怪,为何不用Samba网芳分享,这样MS Windows和Unix都可以互相联机?这是因为NFS效能比Samba好很多,所以常常在平行运算的超级计算机或者商业大型系统上,使用一台NFS Server,其他Server透过光纤信道联机到NFS文件服务器取得数据。
图17-1
如 图17-1,实务上常常架一台NFS Server,并且上面装有磁带机可以定时的备份文件。其他的服务器就把NFS Server share出来的目录挂载起来,实际上所有网页和数据等档案都是放在NFS Server上,这些Server就只单纯运算与响应客户端请求。这样的好处是我们只要维护好一份文件系统即可,并且备份和资源分配也会比较容易。也因为 NFS Server通常使用Raid磁盘阵列系统,所以整个架构可以达成高效能且高可靠性的服务。
NFS运作理论
NFS 有好几个版本,最新版是NFSv4。而NFSv1到NFSv4都是透过RPC来运作,所谓的RPC (Remote Procedure Call) 是远程过程调用。当跑一个程序时,该程序呼叫另外一个程序去做事情然后把结果传回来称为Procedure Call,所以当一个程序呼叫在不同主机的程序去处理事情并传回结果,我们就称为Remote Procedure Call。对于呼叫别人的程序来说,它会感觉到被呼叫的程序也是在本地执行的。所以RPC有个好处就是在写程序的时候,只要管好呼叫的部份,我们不必实际 去处理网络封包等细节,这些细节就给RPC系统处理即可,这样程序也会好写很多。故RPC程序要处理远程传输的问题,只要写好procedure call来呼叫远程主机的程序读取或写入硬盘即可,这大大简化coding的难度。 NFS的实作就是靠RPC了,所以NFS是不处理网络封包的问 题,它只从Client呼叫Server上的NFS procedure,并且告诉该remote procedure想要干嘛,而封包实际的传输就透过标准的RPC协议来达成。故在NFS系统上,Client端和Server端都要安装RPC系统,而 RPC在Linux核心里已经有内建。 … 阅读全文