OpenStack社区请大家留意2011年10月5-7日在马萨诸塞州波士顿举行的OpenStack大会。大会将于10月5日晚举行开幕招待会,并有两天全天围绕OpenStack的精彩内容,此次大会是开源爱好者、云计算技术人员以及OpenStack参与公司生态伙伴不容错过的盛会。
更多关于此次大会的详细信息,敬请期待OpenStack的后续公布。
OpenStack社区请大家留意2011年10月5-7日在马萨诸塞州波士顿举行的OpenStack大会。大会将于10月5日晚举行开幕招待会,并有两天全天围绕OpenStack的精彩内容,此次大会是开源爱好者、云计算技术人员以及OpenStack参与公司生态伙伴不容错过的盛会。
更多关于此次大会的详细信息,敬请期待OpenStack的后续公布。
在过去一周里,OpenStack 社区管理团队进行了一项在线社交媒体参与度调查,以更好地了解不同社区成员类型对可用信息的需求和期望。调查结果已发布,SurveySummary_06082011,其中不包含回答问题的参与者详细信息。
基于这些结果,我们正在采取以下三个行动来满足社区的需求
1. 结果 – 大多数受访者主要通过 OpenStack.org 以及 OpenStack 在各种社交网络(尤其是 Twitter 和 LinkedIn)上的存在获取信息,其中 60% 的人希望定期获得更多信息。
行动 – 将起草一份社交网络计划,以更好地将 OpenStack 的各种信息存储库与社区成员的信息访问点连接起来。该计划将把 OpenStack Slideshare、Vimeo、Flickr、OpenStack.org 和其他存储库的内容推送到 Twitter、LinkedIn、Facebook 等平台。请关注该计划,因为我们打算征求更广泛的社区对该计划中可用选项的反馈。
2. 结果 – 调查中突出了两种社区成员类型:潜在的合作公司和积极贡献者的潜在用户。
行动 – 计划发布一份“OpenStack 入门”文档,其中包含有关如何成为合作公司、积极参与者、开发者等的所有信息。该文档将在许多社交网络网站上可见,包括 OpenStack 主页,为这些社区潜在用户提供关键信息。
3. 结果 – OpenStack 论坛对于寻找信息和常见 OpenStack 用户问题的答案的人们来说,表现出强大的功能。
行动 – 将启动新的营销和推广活动,以显著提高 OpenStack 论坛的知名度并帮助推动更多参与。
再次感谢所有参与者的贡献。如果您对这个问题还有更多想法,请联系 Summer Fouche;或 Stephen Spector。
image:futurity.org
(转载自 Mirantis 官方博客)
正如 Florian Haas 在我之前帖子的评论中 指出的,我们的共享存储配置需要特别的注意事项,以避免当两个通过DRBD连接的主机试图同时管理LVM卷时发生数据损坏。通常,这些注意事项涉及到在‘双主’模式下运行DRBD时锁定LVM元数据操作。
让我们详细探讨一下。LVM锁定机制配置在/etc/lvm/lvm.conf的 [global] 部分。'locking_type' 参数在这里最为重要。它定义了LVM在更改元数据时使用的锁定类型。它可以等于
最简单的方法是使用其中一个drbd对等节点的本地锁定,并禁用另一个节点的元数据操作。然而,这有一个严重的缺点:当创建新的卷组和逻辑卷时,它们不会在另一个“被动”节点上自动激活。问题在于这对生产环境不好,并且不能轻松自动化。
但是有另一种更复杂的方法。我们可以使用 Linux-HA(Heartbeat)配合 LVM资源代理。它自动化了共享存储上新创建的LVM资源的激活,但仍然没有适合“双主”DRBD操作的锁定机制。
值得注意的是,通过存储在仓库中的 **lvm2-cluster** Fedora RPM包可以实现对LVM的完整集群锁定支持。它包含 **clvmd** 服务,该服务在集群的所有主机上运行并控制共享存储上的LVM锁定。在这种情况下,我们集群中只有2个drbd对等节点。
**clvmd** 需要一个集群引擎才能正常工作。它由 **cman** 服务提供,该服务作为 **lvm2-cluster** 的依赖项安装(其他依赖项可能因安装而异)
(drbd-node1)# yum install clvmd
...
依赖关系已解决
================================================================================
软件包 架构 版本 仓库 大小
================================================================================
正在安装
lvm2-cluster x86_64 2.02.84-1.fc15 fedora 331 k
正在为依赖项安装
clusterlib x86_64 3.1.1-1.fc15 fedora 70 k
cman x86_64 3.1.1-1.fc15 fedora 364 k
fence-agents x86_64 3.1.4-1.fc15 updates 182 k
fence-virt x86_64 0.2.1-4.fc15 fedora 33 k
ipmitool x86_64 1.8.11-6.fc15 fedora 273 k
lm_sensors-libs x86_64 3.3.0-2.fc15 fedora 36 k
modcluster x86_64 0.18.7-1.fc15 fedora 187 k
net-snmp-libs x86_64 1:5.6.1-7.fc15 fedora 1.6 M
net-snmp-utils x86_64 1:5.6.1-7.fc15 fedora 180 k
oddjob x86_64 0.31-2.fc15 fedora 61 k
openais x86_64 1.1.4-2.fc15 fedora 190 k
openaislib x86_64 1.1.4-2.fc15 fedora 88 k
perl-Net-Telnet noarch 3.03-12.fc15 fedora 55 k
pexpect noarch 2.3-6.fc15 fedora 141 k
python-suds noarch 0.3.9-3.fc15 fedora 195 k
ricci x86_64 0.18.7-1.fc15 fedora 584 k
sg3_utils x86_64 1.29-3.fc15 fedora 465 k
sg3_utils-libs x86_64 1.29-3.fc15 fedora 54 k
事务摘要
================================================================================
安装 19 个软件包
我们只需要集群是为了使用clvmd;集群本身的配置非常基础。由于我们还不需要自动 fencing 等高级功能,我们指定了手动处理。由于集群中只有2个节点,我们可以告知cman。 **cman** 的配置位于/etc/cluster/cluster.conf 文件中
<?xml version="1.0"?\>
<cluster name="cluster" config_version="1"\>
<!-- post_join_delay: 守护进程在节点加入域后
fencing 任何受害者之前等待的秒数
post_fail_delay: 域成员失败后,守护进程在
fencing 任何受害者之前等待的秒数
clean_start : 防止守护进程可能进行的任何启动 fencing。
它指示守护进程应假定所有节点
在启动时处于干净状态。--\>
<fence_daemon clean_start="0" post_fail_delay="0" post_join_delay="3"/>
<clusternodes>
<clusternode name="drbd-node1" votes="1" nodeid="1">
<fence>
<!-- 手动处理 fencing -->
<method name="human">
<device name="human" nodename="drbd-node1"/>
</method>
</fence>
</clusternode>
<clusternode name="drbd-node2" votes="1" nodeid="2">
<fence>
<!-- 手动处理 fencing -->
<method name="human">
<device name="human" nodename="drbd-node2"/>
</method>
</fence>
</clusternode>
</clusternodes>
<!-- cman 双节点配置 -->
<cman expected_votes="1" two_node="1"/>
<fencedevices>
<!-- 定义手动 fencing -->
<fencedevice name="human" agent="fence_manual"/>
</fencedevices>
</cluster>
**clusternode name** 应为完全限定域名,并通过 DNS 解析或存在于/etc/hosts 中。**votes** 的数量用于确定集群的 **仲裁**。在此例中,我们有两个节点,每个节点一票,并且需要一票来使集群运行(获得仲裁),正如 **cman expected** 属性所配置的那样。
我们需要配置的第二项是集群引擎(**corosync**)。其配置位于/etc/corosync/corosync.conf
compatibility: whitetank
totem {
version: 2
secauth: off
threads: 0
interface {
ringnumber: 0
bindnetaddr: 10.0.0.0
mcastaddr: 226.94.1.1
mcastport: 5405
}
}
logging {
fileline: off
to_stderr: no
to_logfile: yes
to_syslog: yes
# log file 的路径
logfile: /var/log/cluster/corosync.log
debug: off
timestamp: on
logger_subsys {
subsys: AMF
debug: off
}
}
amf {
mode: disabled
}
**bindinetaddr** 参数必须包含一个 *网络* 地址。我们将 **corosync** 配置为在 **eth1** 接口上工作,将我们的节点通过1Gbps网络连接起来。此外,我们还应该配置 **iptables** 以接受两个主机上的组播流量。
值得注意的是,这些配置在两个集群节点上必须相同。
在准备好集群之后,我们可以修改两个drbd连接节点上/etc/lvm/lvm.conf中的LVM锁定类型
global {
...
locking_type = 3
...
}
在drbd对等节点上启动 **cman** 和 **clvmd** 服务,让我们的集群准备就绪
(drbd-node1)# service cman start
正在启动集群
检查集群是否已被禁用启动... [ OK ]
检查网络管理器... [ OK ]
全局设置... [ OK ]
加载内核模块... [ OK ]
挂载 configfs... [ OK ]
启动 cman... [ OK ]
等待仲裁... [ OK ]
启动 fenced... [ OK ]
启动 dlm_controld... [ OK ]
自行解禁... [ OK ]
加入 fencing 域... [ OK ]
(drbd-node1)# service clvmd start
正在启动 clvmd
激活 VG(s): 卷组“vg-sys”中有 2 个逻辑卷现在已激活
卷组“vg_shared”中有 2 个逻辑卷现在已激活
[ OK ]
现在,由于我们已经在共享存储上有了卷组,我们可以轻松地使其集群感知
(drbd-node1)# vgchange -c y vg_shared
现在我们在 VG 属性中看到“c”标志
(drbd-node1)# vgs
VG #PV #LV #SN Attr VSize VFree
vg_shared 1 3 0 wz--nc 1.29t 1.04t
vg_sys 1 2 0 wz--n- 19.97g 5.97g
结果是,在vg_shared 卷组中创建的逻辑卷将在两个节点上都激活,并且为该组中卷的操作启用了集群锁定。LVM命令可以在两个主机上发出,**clvmd** 会处理可能的并发元数据更改。
我们发布了一篇关于处理基本问题和虚拟机恢复方法的新博文。来自博文
今天,我想探讨一下在使用 OpenStack 时可能遇到的一些问题。这个主题的目的是分享我们在处理硬件或软件故障方面的经验,这些故障对于任何试图在生产环境中运行 OpenStack 的人来说肯定都会遇到。
请阅读完整博文:http://mirantis.blogspot.com/2011/06/openstack-nova-basic-disaster-recovery.html。
2011年的夏季(或南半球的冬季)已经来临,OpenStack社区在各种全球性活动中都非常活跃。为了让您及时了解情况,这里简要概述了目前OpenStack的活动日历。其中一些活动还没有公布议程,但请放心,OpenStack正在积极安排演讲者。如果您知道此列表中未列出的活动,请告知我,以便我进行推广。您也可以关注我们的活动:https://openstack.org/community/events/。
重点
2011年6月
2011年7月
2011年8月
OpenStack社区通讯 – 2011年6月3日
这份每周通讯是社区了解每周各种活动的一种方式。如果您想为每周更新添加内容或对本通讯有任何想法,请发送电子邮件至 [email protected]。
Paul Pettigrew, Mach Technology 来自 OpenStack 在 Vimeo。
重点新闻
活动
开发者社区
通用社区
社区统计(5/27-6/2)
OpenStack 新闻
项目Glance PTL Jay Pipes和UShareSoft.com的CTO James Weir将联合主持“Glance的未来方向与讨论”;网络研讨会定于2011年6月21日中午12点(美国东部时间)举行。注册此网络研讨会,请在 https://cc.readytalk.com/cc/schedule/display.do?udc=i5l6gkl36wsy 注册。
本次网络研讨会将介绍该项目,随后将就Glance项目的路线图进行公开社区讨论。
大家好,OpenStack社区!我叫Summer,是今年夏天的社区经理实习生。我很高兴能与Stephen、OpenStack团队以及你们所有人一起,在这个充满活力且快速发展的项目中工作。我目前在德克萨斯大学奥斯汀分校攻读图书馆与信息科学专业。我的图书馆科学背景以及我之前从未在科技行业工作的经历,都使这是一次新颖的体验。但当我努力理解云计算和独特的开源社区的方方面面时,也出现了一些相似之处。
吸引我进入图书馆/信息科学领域的一个因素是它的平等主义和社区服务性。将信息或数据连接到需要它的人是信息专业的基本原则。我喜欢这样一个想法:当我不知道问题的答案时(这非常非常频繁),有人知道,并且稍加搜索,答案就可以触手可及。即使是这种简单的信息共享模式,也与云计算的世界有着相似之处。我不是拥有一个固有的、静态的答案,而是能够从各种来源获取最新的知识。
当然,建立一个连接问题和答案的资源网络至关重要。即使是最好的图书管理员,如果他们没有连接到各种资源、期刊、文章,最重要的是人,也无法找到正确的答案。这正是OpenStack社区似乎在蓬勃发展并快速增长的地方。看到世界各地涌现出如此多的本地社区,并以前所未有的速度致力于增加共享知识,真是令人惊叹。
在接下来的几个月里,我将与Stephen合作,通过各种可用的社交网络和论坛,帮助各种OpenStack社区更好地连接并了解最新发展。Stephen让我阅读了Eric Raymond的经典著作《大教堂与集市》,作为对开源理念的介绍。这篇文章让我想起了图书馆中类似的范式转变。传统上,信息专业人士被视为知识的“守门人”(大教堂的守门人?),而现在,他们认识到打开这些大门、让集市进来并参与对话的重要性。所以,大家好!我很高兴能成为这个社区的一员,并期待为OpenStack的对话做出贡献。
可以通过 [email protected] 联系到我。
VMblog.com网站直接发来了一个精彩的视频,采访了Citrix的Sameer Dholakia和Dell的Joseph George,讨论OpenStack和Project Olympus。
Citrix Synergy 2011 – Interview with Sameer Dholakia and Joseph George about OpenStack 来自 VMblog 在 Vimeo。
OpenStack社区通讯 – 2011年5月27日
这份每周通讯是社区了解每周各种活动的一种方式。如果您想为每周更新添加内容或对本通讯有任何想法,请发送电子邮件至 [email protected]。
OS Event Recap Spring 2011 from OpenStack on Vimeo.
重点新闻
活动
开发者社区
通用社区
社区统计(5/20-5/26)
OpenStack 新闻