资源隔离调度算法测试(isolated_scheduler)及openstack集群开发环境搭建
2016-03-29 00:00
627 查看
感谢朋友支持本博客,欢迎共同探讨交流,由于能力和时间有限,错误之处在所难免,欢迎指正!
如有转载,请保留源作者博客信息。
Better Me的博客:blog.csdn.net/tantexian
如需交流,欢迎大家博客留言。
1、环境:
2、集群
3、测试虚拟机生成:
一切正常。(原生默认的虚拟机调度策略为:生成到逻辑剩余内存最大的计算节点。)
4、安装samba环境,请参考相应博文。
将源码重定向到samba文件中(ln -s)
5、windows中共享samba中的代码
6、访问页面:
解决,出现下面错误:
开发环境搭建完成:
7、无密码scp、rsync:
在主节点node31:
ssh-keygen -t rsa
scp .ssh/id_rsa.pub root@192.168.10.31:/root/.ssh/authorized_keys(分别复制到node32/33/34/35节点)
8、安装同步工具:(同步的所有节点都需要安装)比scp效率高
yum install rsync -y
rsync -avzP /home/samba/nova-2014-1-1/nova/
root@192.168.10.32
:/usr/lib/python2.6/site-packages/nova/
第一次同步时间比较长,后续则是差分同步
node31同步脚本:
9、远程重启compute服务脚本:
ssh 192.168.10.32 "service openstack-nova-compute restart"
编写脚本:
每次同步完代码,执行此脚本重启所有节点的compute服务,使代码生效。
10、接下来使用pycharm在windows上同步linux开发:
11、重启服务,访问页面
将计算节点分区域和主机集合:
12、nova数据库中增加数据库计算资源隔离数据库表:(详情参考博文:
http://blog.csdn.net/tantexian/article/details/39156803
)
数据库字段注释:
13、验证增删字段到isolated_schedule数据库表中:
获取token值,加入到环境变量:
发布操作隔离资源的api:
查看下keystone的租户信息表:
查看所有可用zone:
查看所有可用aggregate:
查看所有可用host:
根据tenant_id获取数据库表isolated_schedule host、aggregate、zone:
所有API测试通过
14、测试计算资源过滤调度算法:
scheduler.filter增加过滤算法:
要使用该算法,则应该在/etc/nova.conf增加配置项:
scheduler_default_filters配置项修改为:
重启服务生效。
调度算法具体分析,更多详情请参考博文:http://blog.csdn.net/tantexian/article/details/39156829
15、测试限制admin 租户只能将虚拟机生成到node31、node35上:
数据库增加两条记录:
开启远程debug,更多详情请参考之前博文。
根据调试结果,与预期一致。(注,由于遵循opentack原生的调度过滤算法架构,此处有个明显的问题就是,每判断一次host都要走一次数据库,因此比较耗性能,后续考虑优化)
如果修改配置提示_member_不存在则修改:
vim /usr/share/openstack-dashboard/openstack_dashboard/local/local_settings.py
在页面生成虚拟机:
由上述结果可以知道,生成的8个虚拟机能够生成到指定的node31、node35上。
16、测试限制admin 租户只能将虚拟机生成到ag1和ag3上:
数据库信息:
与预期结果一致。
有上述结果可以知道,生成的8个虚拟机能够生成到指定的ag1、ag3上。
17、测试限制admin 租户只能将虚拟机生成到zone2上:
与预期一致:
有上述结果可以知道,生成的8个虚拟机能够生成到指定的zone2上。
18、测试限制admin 租户只能将虚拟机生成到ag2和node31及zone2上:
调度算法验证完毕。
如有转载,请保留源作者博客信息。
Better Me的博客:blog.csdn.net/tantexian
如需交流,欢迎大家博客留言。
1、环境:
centos6.5 openstack icehouse |
nova-manage service list |
一切正常。(原生默认的虚拟机调度策略为:生成到逻辑剩余内存最大的计算节点。)
4、安装samba环境,请参考相应博文。
将源码重定向到samba文件中(ln -s)
5、windows中共享samba中的代码
6、访问页面:
解决,出现下面错误:
开发环境搭建完成:
7、无密码scp、rsync:
在主节点node31:
ssh-keygen -t rsa
scp .ssh/id_rsa.pub root@192.168.10.31:/root/.ssh/authorized_keys(分别复制到node32/33/34/35节点)
8、安装同步工具:(同步的所有节点都需要安装)比scp效率高
yum install rsync -y
rsync -avzP /home/samba/nova-2014-1-1/nova/
root@192.168.10.32
:/usr/lib/python2.6/site-packages/nova/
第一次同步时间比较长,后续则是差分同步
node31同步脚本:
vi rsyncNova.sh rsync -avzP --exclude ".pyc" /home/samba/nova-2014-1-1/nova/ root@192.168.10.32:/usr/lib/python2.6/site-packages/nova/ rsync -avzP --exclude ".pyc" /home/samba/nova-2014-1-1/nova/ root@192.168.10.33:/usr/lib/python2.6/site-packages/nova/ rsync -avzP --exclude ".pyc" /home/samba/nova-2014-1-1/nova/ root@192.168.10.34:/usr/lib/python2.6/site-packages/nova/ rsync -avzP --exclude ".pyc" /home/samba/nova-2014-1-1/nova/ root@192.168.10.35:/usr/lib/python2.6/site-packages/nova/ |
9、远程重启compute服务脚本:
ssh 192.168.10.32 "service openstack-nova-compute restart"
编写脚本:
vi allcompute-restart.sh service openstack-nova-compute restart ssh 192.168.10.32 "service openstack-nova-compute restart" ssh 192.168.10.33 "service openstack-nova-compute restart" ssh 192.168.10.34 "service openstack-nova-compute restart" ssh 192.168.10.35 "service openstack-nova-compute restart" |
每次同步完代码,执行此脚本重启所有节点的compute服务,使代码生效。
10、接下来使用pycharm在windows上同步linux开发:
11、重启服务,访问页面
将计算节点分区域和主机集合:
12、nova数据库中增加数据库计算资源隔离数据库表:(详情参考博文:
http://blog.csdn.net/tantexian/article/details/39156803
)
数据库字段注释:
user_id:用于扩展、暂且保留 tenant_id #租户id,表示该租户只能使用某些zone、aggregate、host的计算节点生成虚拟机 isolated_type = Column(String(36))##0==host, 1 ==aggregate,2==zone isolated_name = Column(String(255))#zone or aggregate or host name isolated_id = Column(Integer)#zone or aggregate or service tables'id status = Column(Integer) #0 == down 1==active,用于扩展、暂且保留 |
获取token值,加入到环境变量:
vi .bashrc 添加内容: 环境变量生效: source .bashrc 验证TOKEN变量是否生效: |
查看下keystone的租户信息表:
查看所有可用zone:
查看所有可用aggregate:
查看所有可用host:
添加一个host到数据库: (其中第一个值2a4fe5e733e44982b1d576c5a0fe4bfd为当前用户属于的tenant_id主要用来做权限认证, 第二个值2a4fe5e733e44982b1d576c5a0fe4bfd为所操作计算资源隔离的对象,本次环境为admin租户)
api测试成功。 |
删除一个host从数据库:
|
添加一个aggregate从数据库:
|
删除一个aggregate从数据库:
|
添加一个zone从数据库:
|
删除一个zone从数据库:
|
获取host从数据库:
|
获取aggregate从数据库:
|
获取zone从数据库:
|
14、测试计算资源过滤调度算法:
scheduler.filter增加过滤算法:
要使用该算法,则应该在/etc/nova.conf增加配置项:
scheduler_default_filters配置项修改为:
scheduler_default_filters=IsolatedscheduleFilter,RetryFilter,AvailabilityZoneFilter,RamFilter,ComputeFilter,ComputeCapabilitiesFilter,ImagePropertiesFilter,ServerGroupAntiAffinityFilter,ServerGroupAffinityFilter |
重启服务生效。
调度算法具体分析,更多详情请参考博文:http://blog.csdn.net/tantexian/article/details/39156829
15、测试限制admin 租户只能将虚拟机生成到node31、node35上:
数据库增加两条记录:
开启远程debug,更多详情请参考之前博文。
根据调试结果,与预期一致。(注,由于遵循opentack原生的调度过滤算法架构,此处有个明显的问题就是,每判断一次host都要走一次数据库,因此比较耗性能,后续考虑优化)
如果修改配置提示_member_不存在则修改:
vim /usr/share/openstack-dashboard/openstack_dashboard/local/local_settings.py
在页面生成虚拟机:
由上述结果可以知道,生成的8个虚拟机能够生成到指定的node31、node35上。
16、测试限制admin 租户只能将虚拟机生成到ag1和ag3上:
数据库信息:
与预期结果一致。
有上述结果可以知道,生成的8个虚拟机能够生成到指定的ag1、ag3上。
17、测试限制admin 租户只能将虚拟机生成到zone2上:
与预期一致:
有上述结果可以知道,生成的8个虚拟机能够生成到指定的zone2上。
18、测试限制admin 租户只能将虚拟机生成到ag2和node31及zone2上:
调度算法验证完毕。
相关文章推荐
- nova-scheduler详解 openstack-ice版
- openstack nova调用libvirt,跟踪libvirt源码实例详解(cpu_mode及live_migrate 错误解决)
- Openstack Icehouse 虚拟机迁移配置(转)
- OpenStack在天河二号的大规模部署实践(转)
- Mirantis、 IBM对OpenStack进行性能测试,规模达到75000个虚拟机(转)
- OpenStack 中的 Nova Cell(转)
- OpenStack Heat总结之:icehouse版本中Heat的简单介绍(转)
- p2v之 clonezilla(3)还原镜像文件到openstack(kvm)启动镜像(最后附VMware workstations)
- P2V–离线迁移windows、linux到OpenStack中(转)
- OpenvSwitch完全使用手册
- openstack 官方文档配置 Open vSwitch
- 初探 Openstack Neutron DVR(转)
- openstack neutron必读基础知识(转)
- openstack juno 完全按照官方文档安装
- juno版本allinone修改openstack的ip修改需要做的操作
- Cloud Prizefight: OpenStack vs. VMware(转)-HA-FT
- Cloud Prizefight: OpenStack vs. VMware(转)
- 使用corosync+pacemaker构建高可用集群(转)
- centos6之pacemaker 高可用Web使用详解(转)
- Cloud Prizefight: OpenStack vs. VMware(转)-HA-FT