How to grant

Sat, 29 Oct 2022 04:25:25 GMT
My colleague asked me " How Can I grant Execute rights for my User Defined Table Type"? - There is not execute option as you can see below
 
 
Without Execute Option
 
I found out that I can grant this type of this permission only vis T-SQL.
 
This query will help you:
 
GRANT EXEC ON TYPE::[dbo].[Type_AdvancedSearchCondition] TO [sa]
GRANT EXEC ON TYPE::[dbo].[Type_AdvancedSearchCondition] TO [SP\xp82]
 
If executed this query and check GUI again you can see granted execute permission as you can see below.
 
With Execute
 
 
Take it easy!
参考网址:
https://stackoverflow.com/questions/6870320/the-execute-permission-is-denied-on-the-user-defined-table-types
https://www.pigeonsql.com/single-post/how-to-grant-execute-permission-for-user-defined-table-type
...
浏览 : 645 阅读全文

摘要

当我们要对数据库做有风险的操作时需要对数据库备份,每次上线项目时,线上与线下数据库结构总会有不一致的情况,本文将讲解如何利用Navicat来方便的解决这两个问题。

Navicat

Navicat是一套快速、可靠的数据库管理工具,专为简化数据库的管理及降低系统管理成本而设。它的设计符合数据库管理员、开发人员及中小企业的需要。Navicat是以直觉化的图形用户界面而建的,让你可以以安全并且简单的方式创建、组织、访问并共用信息。

注意:本教程采用的时Navicat12版本,下载地址:www.navicat.com.cn/download/na…

使用数据库介绍

现在数据库中有两个数据库,mall-test表示测试环境数据库,mall-prod表示线上环境数据库。

数据备份

现在我们先对mall-test数据库备份,备份完成后,删除商品表的数据,然后利用备份进行数据还原。

mall-test中的数据概览

目前数据库中只有商品模块的数据库表,pms_product表中有一定的数据。

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda5d650ae32?w=575&h=383&f=png&s=33774

 

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda60f1c9d84?w=1099&h=456&f=png&s=62924

 

进行数据备份

  • 先点击顶部工具栏的备份图标,再点击新建备份按钮

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda5daa98a77?w=796&h=209&f=png&s=18299

 

  • 点击开始按钮开始备份

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda5e815c7b4?w=616&h=479&f=png&s=16610

 

  • 备份完成后会生成一个备份文件

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda5e03122ea?w=573&h=225&f=png&s=15816

 

清空pms_product表的数据

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda5d8d02711?w=927&h=135&f=png&s=9819

 

从备份中还原数据

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda609b21efd?w=753&h=190&f=png&s=18609

 

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda6439c70f4?w=988&h=314&f=png&s=43320

 

结构同步

相关背景说明

原来的mall-test模块中只有商品模块的表,现在我们经过了一段时间的开发,新增了订单模块,同时删除和修改了商品模块的一些表,而mall-prod表中还是原来的商品模块表,我们现在要做的是把mall-test的数据库表结构同步到mall-prod。

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda61f57a1a0?w=759&h=470&f=png&s=42200

 

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda6463833b2?w=629&h=517&f=png&s=48317

 

进行结构同步

  • 选择结构同步功能

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda6847dfc15?w=529&h=267&f=png&s=30772

 

  • 选择源数据库和目标数据库,点击比对按钮

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda6462ebeb4?w=776&h=679&f=png&s=22996

 

  • 可以看到修改、新增和删除的表信息,点击部署会出现sql脚本的预览

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda676055a89?w=776&h=850&f=png&s=41275

 

  • 确认了部署脚本信息后,点击运行会进行数据结构的同步

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda6845f9eee?w=776&h=731&f=png&s=101424

 

  • 再次进行结构同步时,已经发现两个数据库结构已经完全一致

 

https://user-gold-cdn.xitu.io/2019/6/12/16b4bda683b7bebd?w=776&h=731&f=png&s=34714

作者:MacroZheng
链接:https://juejin.im/post/5d00fc865188255fc6384126
来源:掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

 

...
浏览 : 1669 阅读全文

开发者必备Mysql命令

Thu, 18 Jun 2020 05:25:10 GMT

摘要

开发者必备Mysql常用命令,涵盖了数据定义语句、数据操纵语句及数据控制语句,基于Mysql5.7。

数据定义语句(DDL)

数据库操作

  • 登录数据库:
mysql -uroot -proot
复制代码
  • 创建数据库:
create database test
复制代码
  • 查看所有数据库:
show databases
复制代码

 

展示图片

 

  • 选择数据库并使用:
use test
复制代码
  • 查看所有数据表:
show tables
复制代码
  • 删除数据库:
drop database test
复制代码

表操作

  • 创建表:
create table emp(ename varchar(10),hiredate date,sal decimal(10,2),deptno int(2))  
复制代码
create table dept(deptno int(2),deptname varchar(10))
复制代码

 

展示图片

 

  • 查看表的定义:
desc emp
复制代码

 

展示图片

 

  • 查看表定义(详细):
show create table emp \G
复制代码

 

展示图片

 

  • 删除表:
drop table emp
复制代码
  • 修改表字段:
alter table emp modify ename varchar(20)
复制代码
  • 添加表字段:
alter table emp add column age int(3)
复制代码
  • 删除表字段:
alter table emp drop column age
复制代码
  • 字段改名;
alter table emp change age age1 int(4)
复制代码
  • 修改表名:
alter table emp rename emp1
复制代码

数据操纵语句(DML)

插入记录

  • 指定名称插入:
insert into emp (ename,hiredate,sal,deptno) values ('zhangsan','2018-01-01','2000',1)
复制代码
  • 不指定名称插入:
insert into emp values ('lisi','2018-01-01','2000',1)
复制代码
  • 批量插入数据:
insert into dept values(1,'dept1'),(2,'dept2')
复制代码

修改记录

update emp set sal='4000',deptno=2 where ename='zhangsan'
复制代码

删除记录

delete from emp where ename='zhangsan'
复制代码

查询记录

  • 查询所有记录:
select * from emp
复制代码
  • 查询不重复的记录:
select distinct deptno from emp
复制代码
  • 条件查询:
select * from emp where deptno=1 and sal<3000
复制代码
  • 排序和限制:
select * from emp order by deptno desc limit 2
复制代码
  • 分页查询(查询从第0条记录开始10条):
select * from emp order by deptno desc limit 0,10
复制代码
  • 聚合(查询部门人数大于1的部门编号):
select deptno,count(1) from emp group by deptno having count(1) > 1
复制代码
  • 连接查询:
select * from emp e left join dept d on e.deptno=d.deptno
复制代码
  • 子查询:
select * from emp where deptno in (select deptno from dept)
复制代码
  • 记录联合:
select deptno from emp union select deptno from dept
复制代码

数据控制语句(DCL)

权限相关

  • 授予操作权限(将test数据库中所有表的select和insert权限授予test用户):
grant select,insert on test.* to 'test'@'localhost' identified by '123'
复制代码
  • 查看账号权限:
show grants for 'test'@'localhost'
复制代码

 

展示图片

 

  • 收回操作权限:
revoke insert on test.* from 'test'@'localhost'
复制代码

 

展示图片

 

  • 授予所有数据库的所有权限:
grant all privileges on *.* to 'test'@'localhost'
复制代码
  • 授予所有数据库的所有权限(包括grant):
grant all privileges on *.* to 'test'@'localhost' with grant option
复制代码
  • 授予SUPER PROCESS FILE权限(系统权限不能指定数据库):
grant super,process,file on *.* to 'test'@'localhost'
复制代码
  • 只授予登录权限:
grant usage on *.* to 'test'@'localhost'
复制代码

帐号相关

  • 删除账号:
drop user 'test'@'localhost'
复制代码
  • 修改自己的密码:
set password = password('123')
复制代码
  • 管理员修改他人密码:
set password for 'test'@'localhost' = password('123')
复制代码

其他

字符集相关

  • 查看字符集:
show variables like 'character%'
复制代码

 

展示图片

 

  • 创建数据库时指定字符集:
create database test2 character set utf8
复制代码

 

展示图片

 

时区相关

  • 查看当前时区(UTC为世界统一时间,中国为UTC+8):
show variables like "%time_zone%"
复制代码

 

展示图片

 

  • 修改mysql全局时区为北京时间,即我们所在的东8区:
set global time_zone = '+8:00';
复制代码
  • 修改当前会话时区:
set time_zone = '+8:00'
复制代码

 

展示图片

 

  • 立即生效:
flush privileges

 

...
浏览 : 1962 阅读全文

MySql主从复制,从原理到实践!

Thu, 18 Jun 2020 10:57:42 GMT

摘要

本文将从MySql主从复制的原理出发,详细介绍MySql在Docker环境下的主从复制搭建,以一个主实例和一个从实例实现主从复制为例。

什么是主从复制?

主从复制是指将主数据库的DDL和DML操作通过二进制日志传到从数据库上,然后在从数据库上对这些日志进行重新执行,从而使从数据库和主数据库的数据保持一致。

主从复制的原理

  • MySql主库在事务提交时会把数据变更作为事件记录在二进制日志Binlog中;
  • 主库推送二进制日志文件Binlog中的事件到从库的中继日志Relay Log中,之后从库根据中继日志重做数据变更操作,通过逻辑复制来达到主库和从库的数据一致性;
  • MySql通过三个线程来完成主从库间的数据复制,其中Binlog Dump线程跑在主库上,I/O线程和SQL线程跑着从库上;
  • 当在从库上启动复制时,首先创建I/O线程连接主库,主库随后创建Binlog Dump线程读取数据库事件并发送给I/O线程,I/O线程获取到事件数据后更新到从库的中继日志Relay Log中去,之后从库上的SQL线程读取中继日志Relay Log中更新的数据库事件并应用,如下图所示。

 

 

主实例搭建

  • 运行mysql主实例:
docker run -p 3307:3306 --name mysql-master \
-v /mydata/mysql-master/log:/var/log/mysql \
-v /mydata/mysql-master/data:/var/lib/mysql \
-v /mydata/mysql-master/conf:/etc/mysql \
-e MYSQL_ROOT_PASSWORD=root  \
-d mysql:5.7
复制代码
  • 在mysql的配置文件夹/mydata/mysql-master/conf中创建一个配置文件my.cnf
touch my.cnf
复制代码
  • 修改配置文件my.cnf,配置信息如下:
[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=101 
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql  
## 开启二进制日志功能
log-bin=mall-mysql-bin  
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M  
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed  
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7  
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062  
复制代码
  • 修改完配置后重启实例:
docker restart mysql-master
复制代码
  • 进入mysql-master容器中:
docker exec -it mysql-master /bin/bash
复制代码
  • 在容器中使用mysql的登录命令连接到客户端:
mysql -uroot -proot
复制代码
  • 创建数据同步用户:
CREATE USER 'slave'@'%' IDENTIFIED BY '123456';
GRANT REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'slave'@'%';
复制代码

从实例搭建

  • 运行mysql从实例:
docker run -p 3308:3306 --name mysql-slave \
-v /mydata/mysql-slave/log:/var/log/mysql \
-v /mydata/mysql-slave/data:/var/lib/mysql \
-v /mydata/mysql-slave/conf:/etc/mysql \
-e MYSQL_ROOT_PASSWORD=root  \
-d mysql:5.7
复制代码
  • 在mysql的配置文件夹/mydata/mysql-slave/conf中创建一个配置文件my.cnf
touch my.cnf
复制代码
  • 修改配置文件my.cnf:
[mysqld]
## 设置server_id,同一局域网中需要唯一
server_id=102
## 指定不需要同步的数据库名称
binlog-ignore-db=mysql  
## 开启二进制日志功能,以备Slave作为其它数据库实例的Master时使用
log-bin=mall-mysql-slave1-bin  
## 设置二进制日志使用内存大小(事务)
binlog_cache_size=1M  
## 设置使用的二进制日志格式(mixed,statement,row)
binlog_format=mixed  
## 二进制日志过期清理时间。默认值为0,表示不自动清理。
expire_logs_days=7  
## 跳过主从复制中遇到的所有错误或指定类型的错误,避免slave端复制中断。
## 如:1062错误是指一些主键重复,1032错误是因为主从数据库数据不一致
slave_skip_errors=1062  
## relay_log配置中继日志
relay_log=mall-mysql-relay-bin  
## log_slave_updates表示slave将复制事件写进自己的二进制日志
log_slave_updates=1  
## slave设置为只读(具有super权限的用户除外)
read_only=1  
复制代码
  • 修改完配置后重启实例:
docker restart mysql-slave
复制代码

将主从数据库进行连接

  • 连接到主数据库的mysql客户端,查看主数据库状态:
show master status;
复制代码
  • 主数据库状态显示如下:

 

 

  • 进入mysql-slave容器中:
docker exec -it mysql-slave /bin/bash
复制代码
  • 在容器中使用mysql的登录命令连接到客户端:
mysql -uroot -proot
复制代码
  • 在从数据库中配置主从复制:
change master to master_host='192.168.6.132', master_user='slave', master_password='123456', master_port=3307, master_log_file='mall-mysql-bin.000001', master_log_pos=617, master_connect_retry=30;  
复制代码
  • 主从复制命令参数说明:

    • master_host:主数据库的IP地址;
    • master_port:主数据库的运行端口;
    • master_user:在主数据库创建的用于同步数据的用户账号;
    • master_password:在主数据库创建的用于同步数据的用户密码;
    • master_log_file:指定从数据库要复制数据的日志文件,通过查看主数据的状态,获取File参数;
    • master_log_pos:指定从数据库从哪个位置开始复制数据,通过查看主数据的状态,获取Position参数;
    • master_connect_retry:连接失败重试的时间间隔,单位为秒。
  • 查看主从同步状态:

show slave status \G;
复制代码
  • 从数据库状态显示如下:

 

 

  • 开启主从同步:
start slave;
复制代码
  • 查看从数据库状态发现已经同步:

 

 

主从复制测试

主从复制的测试方法有很多,可以在主实例中创建一个数据库,看看从实例中是否有该数据库,如果有,表示主从复制已经搭建成功。

  • 在主实例中创建一个数据库mall

 

 

  • 在从实例中查看数据库,发现也有一个mall数据库,可以判断主从复制已经搭建成功。

 


作者:MacroZheng
链接:https://juejin.im/post/5e1daba46fb9a02fb75d5e92
来源:掘金
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

 

...
浏览 : 2372 阅读全文

SQLServer占CPU100%

Tue, 03 Nov 2015 11:38:52 GMT

遇到的问题

有同事反应服务器CPU过高,一看截图基本都是100%了,my god,这可是大问题,赶紧先看看。

让同事查看系统进程,发现是SQLServer的CPU占用比较高。首先想到的是不是报表生成的时候高,因为这块之前出现过问题,关掉服务程序,还是高。难道是客户端程序引发的?但是这么多的客户端连接,难不成每个都叫人关闭,很简单,把网络断开即可。网络断开之后,CPU立马下降。那么问题到底在哪里呢,是时候祭出我们的利器了——SQLServer Profiler。

...

浏览 : 5791 阅读全文

SQLSERVER排查CPU占用高的情况

Sat, 31 Oct 2015 14:28:56 GMT

今天中午,有朋友叫我帮他看一下数据库,操作系统是Windows2008R2 ,数据库是SQL2008R2 64位

64G内存,16核CPU

硬件配置还是比较高的,他说服务器运行的是金蝶K3软件,数据库实例里有多个数据库

 

现象

他说是这几天才出现的,而且在每天的某一个时间段才会出现CPU占用高的情况

内存占用不太高,只占用了30个G

CPU占用100%

...
浏览 : 6748 阅读全文

Management Studio首次出现在MSSQL2005中,到MSSQL2008中已经成为了一个更成功的产品。其中在SSMS2008中最重要的特性如下:

  • 1.活动监视器
  • 2.对象资源管理器详细信息
  • 3.搜索
  • 4.查询编辑器之IntelliSense 

 

这些只是部分关键功能,其他的功能你可以亲自使用SSMS来发现,祝各位发现的隐藏技巧越来越多。。

...
浏览 : 7038 阅读全文

Mysql避免全表扫描sql查询优化

Sun, 21 Dec 2014 15:41:12 GMT

对查询进行优化,应尽量避免全表扫描,首先应考虑在 where 及 order by 涉及的列上建立索引:

 .尝试下面的技巧以避免优化器错选了表扫描:

·   使用ANALYZE TABLE tbl_name为扫描的表更新关键字分布。

·   对扫描的表使用FORCE INDEX告知MySQL,相对于使用给定的索引表扫描将非常耗时。

           SELECT * FROM t1, t2 FORCE INDEX (index_for_column)

            WHERE t1.col_name=t2.col_name

·   用--max-seeks-for-key=1000选项启动mysqld或使用SET max_seeks_for_key=1000告知优化器假设关键字扫描不会超过1,000次关键字搜索。

 1. 应尽量避免在 where 子句中对字段进行 null 值判断,否则将导致引擎放弃使用索引而进行全表扫描,

      如:

      select id from t where num is null

     NULL对于大多数数据库都需要特殊处理,MySQL也不例外,它需要更多的代码,更多的检查和特殊的索引逻辑,有些开发人员完全没有意识到,创建表时 NULL是默认值,但大多数时候应该使用NOT NULL,或者使用一个特殊的值,如0,-1作为默  认值。

     不能用null作索引,任何包含null值的列都将不会被包含在索引中。即使索引有多列这样的情况下,只要这些列中有一列含有null,该列    就会从索引中排除。也就是说如果某列存在空值,即使对该列建索引也不会提高性能。 任何在where子句中使用is null或is not null的语句优化器是不允许使用索引的。

      此例可以在num上设置默认值0,确保表中num列没有null值,然后这样查询:

      select id    from t where num=0

 2. 应尽量避免在 where 子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描。

     

   MySQL只有对以下操作符才使用索引:<<==>>=BETWEENIN,以及某些时候的LIKE。 可以在LIKE操作中使用索引的情形是指另一个操作数不是以通配符(%或者_)开头的情形。例如,“SELECT id FROM t WHERE col LIKE 'Mich%';”这个查询将使用索引,但“SELECT id FROM t WHERE col  LIKE '%ike';”这个查询不会使用索引。

 3. 应尽量避免在 where 子句中使用 or 来连接条件,否则将导致引擎放弃使用索引而进行全表扫描,

    如:

    select id from t where num=10 or num=20

    可以这样查询: select id from t where num=10 union all select id from t where num=20

 4 .in 和 not in 也要慎用,否则会导致全表扫描,

    如:

   select id from t where num in(1,2,3)

   对于连续的数值,能用 between 就不要用 in 了:

   select id from t where num between 1 and 3

  5.下面的查询也将导致全表扫描:

       select id from t where name like '%abc%' 或者

       select id from t where name like '%abc' 或者

       若要提高效率,可以考虑全文检索。

      而select id from t where name like 'abc%' 才用到索引

 7. 如果在 where 子句中使用参数,也会导致全表扫描。因为SQL只有在运行时才会解析局部变量,但优化程序不能将访问计划的选择推 迟到运行时;它必须在编译时进行选择。然而,如果在编译时建立访问计划,变量的值还是未知的,因而无法作为索引选择的输入项。如下面语句将进行全表扫描:

    select id from t where num=@num

   可以改为强制查询使用索引: select id from t with(index(索引名)) wherenum=@num

 8.应尽量避免在 where 子句中对字段进行表达式操作,这将导致引擎放弃使用索引而进行全表扫描。

 如:

  select id from t where num/2=100

应改为:

 select id from t where num=100*2

9. 应尽量避免在where子句中对字段进行函数操作,这将导致引擎放弃使用索引而进行全表扫描。

如:

select id from t where substring(name,1,3)='abc'--name

select id from t where datediff(day,createdate,'2005-11-30')=0--‘2005-11-30’生成的id 应改为:

select id from t where name like 'abc%'

select id from t where createdate>='2005-11-30' and createdate<'2005-12-1'

10.不要在 where 子句中的“=”左边进行函数、算术运算或其他表达式运算,否则系统将可能无法正确使用索引。

11.在使用索引字段作为条件时,如果该索引是复合索引,那么必须使用到该索引中的第一个字段作为条件时才能保证系统使用该索引,否则该索引将不会被使用,并且应尽可能的让字段顺序与索引顺序相一致。

12.不要写一些没有意义的查询,

如需要生成一个空表结构:

 select col1,col2 into #t from t where 1=0

这类代码不会返回任何结果集,但是会消耗系统资源的,应改成这样: create table #t(...)

13.很多时候用 exists 代替 in 是一个好的选择:

select num from a where num in(select num from b)

用下面的语句替换:

select num from a where exists(select 1 from b where num=a.num)

14.并不是所有索引对查询都有效,SQL是根据表中数据来进行查询优化的,当索引列有大量数据重复时,SQL查询可能不会去利用索引,如一表中有字段sex,male、female几乎各一半,那么即使在sex上建了索引也对查询效率起不了作用。

15.索引并不是越多越好,索引固然可以提高相应的 select 的效率,但同时也降低了 insert 及 update 的效率,因为 insert 或 update 时有可能会重建索引,所以怎样建索引需要慎重考虑,视具体情况而定。一个表的索引数最好不要超过6个,若太多则应考虑一些不常使用到的列上建的索引是否有 必要。

16.应尽可能的避免更新 clustered 索引数据列,因为 clustered 索引数据列的顺序就是表记录的物理存储顺序,一旦该列值改变将导致整个表记录的顺序的调整,会耗费相当大的资源。若应用系统需要频繁更新 clustered 索引数据列,那么需要考虑是否应将该索引建为 clustered 索引。

17.尽量使用数字型字段,若只含数值信息的字段尽量不要设计为字符型,这会降低查询和连接的性能,并会增加存储开销。这是因为引擎在处理查询和连接时会逐个比较字符串中每一个字符,而对于数字型而言只需要比较一次就够了。

18.尽可能的使用 varchar/nvarchar 代替 char/nchar ,因为首先变长字段存储空间小,可以节省存储空间,其次对于查询来说,在一个相对较小的字段内搜索效率显然要高些。

19.任何地方都不要使用 select * from t ,用具体的字段列表代替“*”,不要返回用不到的任何字段。

20.尽量使用表变量来代替临时表。如果表变量包含大量数据,请注意索引非常有限(只有主键索引)。 21.避免频繁创建和删除临时表,以减少系统表资源的消耗。

22.临时表并不是不可使用,适当地使用它们可以使某些例程更有效,例如,当需要重复引用大型表或常用表中的某个数据集时。但是,对于一次性事件,最好使用导出表。

23.在新建临时表时,如果一次性插入数据量很大,那么可以使用 select into 代替 create table,避免造成大量 log ,以提高速度;如果数据量不大,为了缓和系统表的资源,应先create table,然后insert。

24.如果使用到了临时表,在存储过程的最后务必将所有的临时表显式删除,先 truncate table ,然后 drop table ,这样可以避免系统表的较长时间锁定。

25.尽量避免使用游标,因为游标的效率较差,如果游标操作的数据超过1万行,那么就应该考虑改写。 26.使用基于游标的方法或临时表方法之前,应先寻找基于集的解决方案来解决问题,基于集的方法通常更有效。

27.与临时表一样,游标并不是不可使用。对小型数据集使用 FAST_FORWARD 游标通常要优于其他逐行处理方法,尤其是在必须引用几个表才能获得所需的数据时。在结果集中包括“合计”的例程通常要比使用游标执行的速度快。如果开发时 间允许,基于游标的方法和基于集的方法都可以尝试一下,看哪一种方法的效果更好。

28.在所有的存储过程和触发器的开始处设置 SET NOCOUNT ON ,在结束时设置 SET NOCOUNT OFF 。无需在执行存储过程和触发器的每个语句后向客户端发送 DONE_IN_PROC 消息。

29.尽量避免大事务操作,提高系统并发能力。

30.尽量避免向客户端返回大数据量,若数据量过大,应该考虑相应需求是否合理。

...
浏览 : 6574 阅读全文

一、业务发展驱动数据发展

  随着网站业务的不断发展,用户量的不断增加,数据量成倍地增长,数据库的访问量也呈线性地增长。特别是在用户访问高峰期间,并发访问量突然增大,数据库的负载压力也会增大,如果架构方案不够健壮,那么数据库服务器很有可能在高并发访问负载压力下宕机,造成数据访问服务的失效,从而导致网站的业务中断,给公司和用户造成双重损失。那么,有木有一种方案能够解决此问题,使得数据库不再因为负载压力过高而成为网站的瓶颈呢?答案肯定是有的。

  目前,大部分的主流关系型数据库都提供了主从热备功能,通过配置两台(或多台)数据库的主从关系,可以将一台数据库服务器的数据更新同步到另一台服务器上。网站可以利用数据库的这一功能,实现数据库的读写分离,从而改善数据库的负载压力

master-slave

  利用数据库的读写分离,Web服务器在写数据的时候,访问主数据库(Master),主数据库通过主从复制机制将数据更新同步到从数据库(Slave),这样当Web服务器读数据的时候,就可以通过从数据库获得数据。这一方案使得在大量读操作的Web应用可以轻松地读取数据,而主数据库也只会承受少量的写入操作,还可以实现数据热备份,可谓是一举两得的方案。

二、MySQL数据复制原理

  刚刚我们了解了关系型数据库的读写分离能够实现数据库的主从架构,那么主从架构中最重要的数据复制又是怎么一回事呢?MySQL作为最流行的关系型数据库之一,通过了解MySQL的数据复制流程,会使得我们对主从复制的认知会有一定的帮助。

mysql

  从上图来看,整体上有如下三个步凑:

  (1)Master将改变记录到二进制日志(binary log)中(这些记录叫做二进制日志事件,binary log events);

  (2)Slave将Master的二进制日志事件(binary log events)拷贝到它的中继日志(relay log);

PS:从图中可以看出,Slave服务器中有一个I/O线程(I/O Thread)在不停地监听Master的二进制日志(Binary Log)是否有更新:如果没有它会睡眠等待Master产生新的日志事件;如果有新的日志事件(Log Events),则会将其拷贝至Slave服务器中的中继日志(Relay Log)。

  (3)Slave重做中继日志(Relay Log)中的事件,将Master上的改变反映到它自己的数据库中。

PS:从图中可以看出,Slave服务器中有一个SQL线程(SQL Thread)从中继日志读取事件,并重做其中的事件从而更新Slave的数据,使其与Master中的数据一致。只要该线程与I/O线程保持一致,中继日志通常会位于OS的缓存中,所以中继日志的开销很小。

三、MySQL主从复制实战

3.1 实验环境总览与准备工作

  (1)实验环境

  ①服务器环境:本次我们主要借助VMware Workstation搭建一个三台Windows Server 2003组成的MySQL服务器集群,其中一台作为Master服务器(IP:192.168.80.10),其余两台均作为Slave服务器(IP:192.168.80.11,192.168.80.12)。

  ②客户机环境:本次我们在Windows 7宿主机(IP:192.168.80.1)编写一个C#控制台程序,对MySQL服务器进行基本的CRUD访问测试。

  (2)准备工作

    下载MySQL文件:http://dev.mysql.com/downloads/mysql/5.5.html#downloads

    这里我们选择5.5版本,为了节省时间,直接选择了Archive免安装版本。又由于虚拟机中的Windows Server 2003是32位,所以选择了32-bit的Archive版本进行使用。

    下载完成后,将三个压缩包分别拷贝至Master(IP:192.168.80.10)、Slave1(IP:192.168.80.11)及Slave2(IP:192.168.80.12)中。

3.2 配置MySQL主服务器

  (1)将MySQL文件拷贝到Master服务器,并解压到一个指定文件夹。这里我放在了:C:\MySQLServer\mysql-5.5.40-win32

  (2)新建一个配置文件,取名为:my-master.ini,添加以下内容:

复制代码
 1 [client]
 2 port=3306
 3 default-character-set=utf8
 4 
 5 [mysqld]
 6 port=3306
 7 
 8 #character_set_server=utf8 一定要这样写;
 9 character_set_server=utf8
10 
11 #解压目录
12 basedir=C:\MySQLServer\mysql-5.5.40-win32
13 
14 #解压目录下data目录,必须为data目录
15 datadir=C:\MySQLServer\mysql-5.5.40-win32\data
16 
17 #sql_mode=NO_ENGINE_SUBSTITUTION,STRICT_TRANS_TABLES 这个有问题,在创建完新用户登录时报错
18 sql_mode=NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION
19 
20 #主服务器的配置
21 #01.开启二进制日志
22 log-bin=master-bin
23 #02.使用二进制日志的索引文件
24 log-bin-index=master.bin.index
25 #03.为服务器添加唯一的编号
26 server-id=1
复制代码

  (3)将my-master.ini传送到Master服务器中mysql所在的文件夹中,并在命令行中将其注册为Windows服务:(这里要转到mysql的bin文件夹中进行操作,因为没有设置环境变量)

  (4)启动mysql服务,并设为自启动类型;

  (5)使用root账号登陆mysql,创建一个具有复制权限的用户;(此时root是没有密码的,直接回车即可)

  (6)在Slave1或Slave2上通过远程登录Master上的mysql测试新建用户是否可以登录;

3.3 配置MySQL从服务器

  (1)同Master服务器,将MySQL文件拷贝解压到指定文件夹下;

  (2)新建一个配置文件,取名为:my-slave.ini,添加以下内容:

复制代码
[client]
port=3306
default-character-set=utf8

[mysqld]
port=3306

#character_set_server=utf8 一定要这样写;
character_set_server=utf8

#解压目录
basedir=C:\MySQLServer\mysql-5.5.40-win32

#解压目录下data目录,必须为data目录
datadir=C:\MySQLServer\mysql-5.5.40-win32\data


#sql_mode=NO_ENGINE_SUBSTITUTION,STRICT_TRANS_TABLES 这个有问题,在创建完新用户登录时报错
sql_mode=NO_AUTO_CREATE_USER,NO_ENGINE_SUBSTITUTION

#从服务器的配置
#01.为服务器添加唯一的编号
server-id=2
#02.开启中继日志
relay-log=slave-relay-log-bin
#03.使用中继日志的索引文件
relay-log-index=slave-relay-log-bin.index
复制代码

PS:这里server-id要确保唯一,我们这里Master(192.168.80.10)的server-id=1,那么Slave1(192.168.80.11)就设置其server-id=2,Slave2(192.168.80.12)则设置其server-id=3。

  (3)将my-slave.ini传送到Slave1和Slave2服务器中mysql所在的文件夹中,并在命令行中将其注册为Windows服务:(这里要转到mysql的bin文件夹中进行操作,因为没有设置环境变量)

  (4)分别启动两台Slave的mysql服务,步凑同master所述;当然,也可以在cmd中输入命令:net start MySQL

  (5)分别使用两台Slave的root账号登陆mysql,通过指定的语句配置主从关系设置;

  (6) 为了方便后面的测试,这里我们在Master上通过root进入mysql,创建一个测试用的数据库和数据表;

  (7)还要创建一个用户,这个用户具有对所有数据库的增删查改的权限,以便用来进行测试;

3.4 编写C#程序测试主从复制结构

  (1)下载mysql for .net开发包,添加对mysql.data.dll的引用

  (2)在控制台程序中写代码访问Master服务器,并查看程序运行结果;

  ①数据库连接部分:

复制代码
<?xml version="1.0" encoding="utf-8" ?>
<configuration>
    <connectionStrings>
        <add name="mysqlmaster" 
         connectionString="server=192.168.80.10;database=dbtest;uid=sa;password=123456"/>
    </connectionStrings>
</configuration>
复制代码

  ②程序代码部分:在程序中首先显示user表内容(这时表是空的),然后会添加5条user信息,其中会修改第3条user信息的name为Edison Chou,最后会删除第5条user信息;

复制代码
        static void Main(string[] args)
        {
            string connStr = ConfigurationManager.ConnectionStrings["mysqlmaster"]
                .ConnectionString;
            // 01.Query
            ShowUserData(connStr);
            // 02.Add a user to table
            for (int i = 0; i < 5; i++)
            {
                AddUserData(connStr, "TestUser" + (i + 1).ToString());
            }
            ShowUserData(connStr);
            // 03.Update a user on table
            UpdateUserData(connStr, 3, "EdisonChou");
            ShowUserData(connStr);
            // 04.Delete a user from table
            DeleteUserData(connStr, 5);
            ShowUserData(connStr);

            Console.ReadKey();
        }

        #region 01.Func:ShowUserData
        private static void ShowUserData(string connStr)
        {
            using (MySqlConnection con = new MySqlConnection(connStr))
            {
                con.Open();
                using (MySqlCommand cmd = con.CreateCommand())
                {
                    cmd.CommandText = "select * from user";
                    using (MySqlDataReader reader = cmd.ExecuteReader())
                    {
                        if (reader.HasRows)
                        {
                            Console.WriteLine("------------table:user------------");
                            while (reader.Read())
                            {
                                Console.WriteLine(reader[0] + "-" + reader[1]);
                            }
                            Console.WriteLine("------------table:user------------");
                        }
                    }
                }
            }
        }
        #endregion

        #region 02.Func:AddUserData
        private static void AddUserData(string connStr, string userName)
        {
            using (MySqlConnection con = new MySqlConnection(connStr))
            {
                con.Open();
                using (MySqlCommand cmd = con.CreateCommand())
                {
                    cmd.CommandText = "insert into user(name) values('" + userName + "')";
                    int result = cmd.ExecuteNonQuery();
                    if (result > 0)
                    {
                        Console.WriteLine("Add User Successfully.");
                    }
                }
            }
        }
        #endregion

        #region 03.Func:UpdateUserData
        private static void UpdateUserData(string connStr, int userId,
    string userName)
        {
            using (MySqlConnection con = new MySqlConnection(connStr))
            {
                con.Open();
                using (MySqlCommand cmd = con.CreateCommand())
                {
                    cmd.CommandText = "update user set name='" + userName
                        + "' where id=" + userId;
                    int result = cmd.ExecuteNonQuery();
                    if (result > 0)
                    {
                        Console.WriteLine("Update User Successfully.");
                    }
                }
            }
        }
        #endregion

        #region 04.Func:DeleteUserData
        private static void DeleteUserData(string connStr, int userId)
        {
            using (MySqlConnection con = new MySqlConnection(connStr))
            {
                con.Open();
                using (MySqlCommand cmd = con.CreateCommand())
                {
                    cmd.CommandText = "delete from user where id=" + userId;
                    int result = cmd.ExecuteNonQuery();
                    if (result > 0)
                    {
                        Console.WriteLine("Delete User Successfully.");
                    }
                }
            }
        }
        #endregion
复制代码

  ③程序运行结果:

  (3)在Slave1(192.168.80.11)和Slave2(192.168.80.12)上查看user表是否自动进行了数据同步;

  ①首先在Master上查看user表还剩哪些信息?

  ②其次在Slave1上查看user表是否进行了同步:

  ③最后在Slave2上查看user表是否进行了同步:

  (4)初步尝试读写分离:一主一从模式的一个最简单的实现方式

  ①在Slave1上新建一个只具有读(select)权限的用户,这里取名为reader:

    create user reader;

    grant select on *.* to reader identified by '123456';

  ②新增一个mysqlslave的数据库连接字符串:

    <connectionStrings>
        <add name="mysqlmaster" 
             connectionString="server=192.168.80.10;database=dbtest;uid=sa;password=123456"/>
        <add name="mysqlslave"
             connectionString="server=192.168.80.11;database=dbtest;uid=reader;password=123456"/>
    </connectionStrings>

  ③新增一个枚举DbCommandType来记录读操作和写操作:

    public enum DbCommandType
    {
        Read,
        Write
    }

  ④修改读取数据表的代码判断是读操作还是写操作:

复制代码
     private static void ShowUserData(DbCommandType commandType)
        {
            string connStr = null;
            if (commandType == DbCommandType.Write)
            {
                connStr = ConfigurationManager.ConnectionStrings["mysqlmaster"]
                    .ConnectionString;
            }
            else
            {
                connStr = ConfigurationManager.ConnectionStrings["mysqlslave"]
                    .ConnectionString;
            }

            using (MySqlConnection con = new MySqlConnection(connStr))
            {
                con.Open();
                using (MySqlCommand cmd = con.CreateCommand())
                {
                    cmd.CommandText = "select * from user";
                    using (MySqlDataReader reader = cmd.ExecuteReader())
                    {
                        if (reader.HasRows)
                        {
                            Console.WriteLine("------------table:user------------");
                            while (reader.Read())
                            {
                                Console.WriteLine(reader[0] + "-" + reader[1]);
                            }
                            Console.WriteLine("------------table:user------------");
                        }
                    }
                }
            }
        }
复制代码

PS:关于MySQL的读写分离实现,主要有以下几种方式:

一种是基于MySQL-Proxy做调度服务器模式,另一种是借助阿里巴巴开源项目Amoeba(变形虫)项目实现(这种方式貌似用的比较多),另外呢就是自己写一个类似于哈希算法的程序库来选择目标数据库;

学习小结

  此次我们主要简单地学习了主从复制的一些相关概念,了解了MySQL在Windows下搭建主从复制架构的过程,最后通过改变程序方式使得一主一从模式下实现读写分离(虽然是很简单很粗陋的实现)。后续有空时,我会尝试在Linux下借助阿里巴巴开源项目Amoeba搭建真正的MySQL读写分离模式,到时也会将搭建的过程分享出来。虽然,我没有相关的真实实践经验,也有很多人跟我说“你这是在纸上谈兵”,我也知道“纸上得来终觉浅,绝知此事要躬行”,但在没毕业之前,我还是会做一些相关的初步了解性质的实践学习,也许以后到了公司,就会有真正的战场在等着我了。当然,如果你觉得我写这篇博客花了点心思,那就麻烦点个赞,谢谢啦!

参考资料

  (1)李智慧,《大型网站技术架构-核心原理与案例分析》:http://item.jd.com/11322972.html

  (2)guisu,《高性能Mysql主从架构的复制原理及配置详解》:http://blog.csdn.net/hguisu/article/details/7325124

  (3)Ghost,《高性能的MySQL主从复制架构》:http://www.uml.org.cn/sjjm/201211061.asp

  (4)飞鸿无痕,《Amoeba搞定MySQL读写分离》:http://blog.chinaunix.net/uid-20639775-id-154600.html (此文讲解了如何借助Amoeba构建MySQL主从复制读写分离,值得阅读

附件下载

  (1)mysql-5.5.40(Archive版本):http://pan.baidu.com/s/1c0u6X80

  (2)相关配置文件(master与slave):http://pan.baidu.com/s/1dDENI73

  (3)C#测试程序DEMO:http://pan.baidu.com/s/1kT42gAz

...
浏览 : 8119 阅读全文

本文从产品设计和架构角度分享了Microsoft内存数据库方面的使用经验,希望你在阅读本文之后能够了解这些新的对象、概念,从而更好地设计你的架构。

内存数据库,指的是将数据库的数据放在内存中直接操作。相对于存放在磁盘上,内存的数据读写速度要高出很多,故可以提高应用的性能。微软的SQL Server 2014已于2014年4月1日正式发布,SQL 2014一个主要的功能即为内存数据库。

下面,我将着重介绍使用SQL Server 2014内存数据库时需要注意的地方。

关于内存数据库

SQL Server 2014内存数据库针对传统的表和存储过程引入了新的结构: memory optimized table(内存优化表)和native stored procedure(本地编译存储过程)。

默认情况下Memory optimized table是完全持久的(即为durable memory optimized table),如传统的基于磁盘的表上的事务一样,并且完全持久的事务也是支持原子、一致、隔离和持久 (ACID) 的。所不同的是内存优化表的整个表的主存储是在内存中,即为从内存读取表中的行,和更新这些行数据到内存中。 并非像是传统基于磁盘的表按照数据库数据库页面装载数据库。内存优化表的数据同时还在磁盘上维护着另一个副本,但仅用于持续性目的。 在数据库恢复期间,内存优化的表中的数据再次从磁盘装载。 创建持久的内存优化表方法如下:

CREATE TABLE DurableTbl
(AccountNo     INT	    NOT NULL  PRIMARY KEY NONCLUSTERED HASH WITH (BUCKET_COUNT = 28713)
,CustName      VARCHAR(20)  NOT NULL
,Gender        CHAR         NOT NULL   /* M or F */
,CustGroup     VARCHAR(4)   NOT NULL   /* which customer group he/she belongs to */
,Addr          VARCHAR(50)  NULL       /* No address supplied is acceptable */
,Phone         VARCHAR(10)  NULL       /* Phone number */
)
WITH (MEMORY_OPTIMIZED=ON, DURABILITY=SCHEMA_AND_DATA)

 

除了默认持久的内存优化表之外,还支持non-durable memory optimized table(非持久化内存优化表),不记录这些表的日志且不在磁盘上保存它们的数据。 这意味着这些表上的事务不需要任何磁盘 IO,但如果服务器崩溃或进行故障转移,则无法恢复数据。创建非持久化内存优化表方法如下:

CREATE TABLE NonDurableTbl

(AccountNo     INT	    NOT NULL  PRIMARY KEY NONCLUSTERED HASH WITH (BUCKET_COUNT = 28713)
,CustName      VARCHAR(20)  NOT NULL
,Gender        CHAR         NOT NULL   /* M or F */
,CustGroup     VARCHAR(4)   NOT NULL   /* which customer group he/she belongs to */
,Addr          VARCHAR(50)  NULL       /* No address supplied is acceptable */
,Phone         VARCHAR(10)  NULL       /* Phone number */
)
WITH (MEMORY_OPTIMIZED=ON, DURABILITY=SCHEMA_ONLY)

Native compiled stored procedure(本地编译存储过程)是针对传统的存储过程而言的,是本机编译存储过程后生成DLL,由于本机编译是指将编程构造转换为本机代码的过程,这些代码由处理器指令组成,无需进一步编译或解释。与传统TSQL 相比,本机编译可提高访问数据的速度和执行查询的效率。故通过本机编译的存储过程,可在存储过程中提高查询和业务逻辑处理的效率。创建方法本地编译存储过程方法如下:

CREATE PROCEDURE dbo.usp_InsertNonDurableTbl
@AccountNo int,
@CustName nvarchar(20),
@Gender	char(1),
@CustGroup	varchar(4),
@Addr	varchar(50),
@Phone	varchar(10)
WITH NATIVE_COMPILATION, SCHEMABINDING, EXECUTE AS OWNER
AS
BEGIN ATOMIC WITH (TRANSACTION ISOLATION LEVEL = SNAPSHOT, LANGUAGE = N'English')      
BEGIN
	INSERT INTO [dbo].[DurableTbl]
           ([AccountNo]
           ,[CustName]
           ,[Gender]
           ,[CustGroup]
           ,[Addr]
           ,[Phone])
     VALUES (@AccountNo
           ,@CustName
           ,@Gender 
           ,@CustGroup 
           ,@Addr
           ,@Phone)
END
END
GO

内存数据库既可以包含内存优化表和本地编译存储过程,又可以包含基于磁盘的表和传统存储过程,各个对象之间数据存储、和访问的架构如下所示:

使用场景

传统基于磁盘的表,通常会遇到内存页面置换、死锁、造成了吞吐量有限、事务延迟较长等问题,内存数据库的内存优化表由于常驻内存,适用于低延迟、高并发、快速数据传输和装载等场景。各场景的使用、机制具体如下:

低延迟:由于内存优化表和本地编译存储过程直接生成DLL,本机编译可提高访问数据的速度和执行查询的效率响应速度快,作为参与处理业务逻辑的存储过程而言,大大降低了存储过程作为中间层执行和访问的效率。提高了应用的访问效率,降低了延迟性。

内存优化表的创建和装载过程如下:

本地编译存储过程的创建和装载过程如下:

对于基于磁盘的表和内存优化表,我们可以在以下示例中对比内存优化表:创建两个同样结构的表,一个为基于磁盘的表包含1700万条记录,当使用常规存储过程查询一条记录,查询时间为67ms;

另一个为内存优化表包含1亿条记录。当使用本地编译存储过程查询内存优化表,所需的执行时间不到1毫秒。

当我们进一步查看两个存储过程的执行计划,发现第一个已经使用聚集索引检索,第二个本地编译存储过程如所预期的,是基于内存优化表的索引检索。

高吞吐量:由于内存优化表直接从内存中读取、写入数据,当访问数据时,不再使用latch,故不同于基于磁盘的表,对于insert/update/delete的操作,latch争用、以及死锁问题随即消失。

与此同时,可大大提高了应用的吞吐量。 随着配置的增加,其性能呈直线上升。

快速数据传输、装载: 由于非持久化内存优化表仅常驻内存,并无基于磁盘的副本。当需要将一些外部数据通过ETL装载到内存数据库,可以使用无任何IO和logging的非持久化内存优化表作为过渡表,可有效的加快装载数据库的速度。

内存数据库设计与性能

并非所有的场景都可以利用到OLTP的内存数据库的优势,针对符合内存数据库使用场景的需求,需确定哪些对象适合转化为内存优化表和本地编辑存储过程,对于已经存在的系统的表对象,如何迁移这些对象。

选择合适的内存优化表

SQL Server 2014 提供了AMR即为Analysis, Migration and Reporting,此工具可来检测哪些基于磁盘的表和存储过程适合迁移到内存数据库中。下面的流程图给出了建议的工作流程:

经常用于做为核心基线的一些指标如下:

  • SQL Server 的 CPU 占用率。
  • SQL Server 的内存占用率。
  • SQL Server 的 I/O 活动。
  • 处理事务时,实例的事务吞吐量。

当已经确定哪些表需要调整为内存优化表,可针对内存优化顾问的“表内存优化顾问”所列出来的清单一一调整,且评估每个表对内存的使用量。

通常在实际生产环境中,为了保证服务的高可用性和数据的完整性、安全性,几乎很少有数据库为单实例结构,紧接着面临的问题是,如何实现内存数据库的高可用性。

内存数据库的高可用性

SQL 2014的内存数据库与现在有诸如群集、Alwayson、replication等高可用技术完全集成,故基于内存数据库的基础上,搭建SQL Server Alwayson Availability Group,考虑到同一数据中心带宽和网络延迟优于跨数据中心,可在同一数据中心采用同步模式作为高可用,不同数据库中心采用异步模式作为灾备。架构如下:

由于内存数据库本身常驻内存,在设计架构时需要注意不同高可用的局限性:

群集:考虑到数据库服务的高可用性,传统基于磁盘的数据库经常采用数据库群集保证应用服务的不间断性。同样内存数据库适用于数据库群集,故Active/Passive、Active/Active、以至于M/N(多个活动节点/多个被动节点)模式的群集均可考虑内存数据库,所需注意的是:

  • 在故障切换时,由于内存优化表需要将所有数据装载到内存中,切换时间比基于磁盘的表时间略长。
  • 非持久性内存优化表由于磁盘并未存放数据副本,在故障切换时,数据内容会被清空。

Alwayson: 在SQL 2012中出现的新功能Alwayson availability group可为数据库提供多个同步或者异步的数据库副本, 在SQL 14中内存数据库与Alwayson availability group可完全集成。依赖于Alwayson的部署向导,内存数据库可像传统数据库一样,快速加入Alwayson availability group中,所需注意的是:

  • 在切换主从数据库时,切换时间较快,由于依赖于alwayson的事务日志记录的redo进程,无需从磁盘重新装载数据库到内存中。
  • 若内存数据库中包含非持久性内存优化表,由于无法依赖于事务日志,非持久性内存优化表的数据仅存在于primary节点。

通常Alwayson也被使用于本地数据库的高可用性,和异地数据库的灾备场景,与内存优化表的结合在性能上,对于主从节点之间网络延迟、传递的事务的大小、以及内存数据库所在的磁盘是否较快,均可影响其性能。

Replication: 复制是将数据和数据库对象从一个数据库复制和分发到另一个数据库,然后在数据库之间进行同步以保持一致性的一种技术。内存数据库中的内存优化表可作为单向事务性复制的订阅方,所需注意的是:

  • 内存优化表的行数据限制在8060 bytes一下。
  • 复制订阅方的数据类型要遵循内存优化表的限制。

数据库架构设计

由于持久性内存优化表需要在服务启动时,将数据装载到内存中,这涉及对现有RTO有一定量的影响。在设计内存数据库文件组的架构时,需注意完全持久的内存优化表的大小、以及装载数据的速度。

在由架构和业务数据量确定内存优化表的大小的前提下,可通过多个Container提升内存数据库的数据装载的速度。

由于每个Container包含着检查点文件对(Checkpoint File Pairs 即为CFPs),CFP 由数据文件和差异文件构成,内存优化表中的数据存储在 CFP 中。为提高数据库服务启动时RTO,在为内存优化数据库创建多个container时,可并行处理不同Container内的检查点文件对,即为提高装载数据到内存数据库的速度。

例如创建Container可在创建数据库时创建,或者一个或多个container添加到 MEMORY_OPTIMIZED_DATA 文件组,脚本如下所示:

CREATE DATABASE InMemory_DBTest ON  
 PRIMARY (NAME = [InMemory_DB_hk_fs_data], FILENAME = 'D:\InMemory_DBTest\InMemory_DB_data.mdf'), 

 FILEGROUP [InMemory_DB_fs_fg] CONTAINS MEMORY_OPTIMIZED_DATA 
 (NAME = [InMemory_DB_fs_dir],  FILENAME = 'D:\ InMemory_DBTest\ InMemory_DB_hk_fs_dir'),
 (NAME = [InMemory_DB_fs_dir2],  FILENAME = 'D:\ InMemory_DBTest\ InMemory_DB_hk_fs_dir2'),
 (NAME = [InMemory_DB_fs_dir3],  FILENAME = 'D:\ InMemory_DBTest\ InMemory_DB_hk_fs_dir3')
 LOG ON (name = [test_log], Filename='D:\ InMemory_DBTest\ InMemory_DB.ldf', size=100MB)
 COLLATE Welsh_100_BIN2 
Go

此外,并在不同的驱动器上分配这些Container,以实现更多带宽来将数据传输到内存中。由于内存数据库引擎会根据轮询法跨Container分发数据文件和差异文件,为提高Container对磁盘的带宽的性能,应在每个磁盘均衡数据文件和差异文件。

对于设计内存优化表时,需要考虑bucket的数量,一般来讲建议bucket的数量为预估表记录的1-2倍。

相对于磁盘,内存的数据读写速度要高出几个数量级,将数据保存在内存中相比从磁盘上访问能够极大地提高应用的性能。由于内存数据库是以牺牲内存资源为代价换取数据处理实时性的,以下图表显示了近些年计算机硬件(内存)飞速发展,为内存数据库的使用带来了可能性。

内存数据库在使用硬件资源与传统表有着一定的特殊性,为了提高内存数据库性能,对存储内存数据库的各方面的资源有着比传统数据库更高的要求。可参考如下具体需求:

内存:所有内存优化表是常驻内存的,因此需足够的物理内存来存储内存优化表。但这并不意味着需要将整个数据库放入内存中,而是仅将频繁访问的热数据常驻内存优化表中。且最高可以支持到256GB的数据量。

可使用如下脚本查看内存优化表的内存使用量:

select object_name(object_id), * from sys.dm_db_xtp_table_memory_stats

磁盘:同样存在log和data两类文件。Log文件依然记录事务信息。针对于持久性的内存优化表,为了降低log IO的竞争、保证低延迟,一般建议至少SSD。

CPU: 可根据OLTP环境的负载考虑CPU的配置,如两个CPU socket支撑一个中等级别的服务器。

Network: 针对于单机的内存数据库,由于数据存储于数据库服务器的内存中,对于数据交互仍然为应用层到数据层的访问,如以往数据交互,对于网络并未有较高的依赖性。对于内存数据库应用于数据库高可用和异地灾备的情况下(如同步/异步模式的Always-on),同一数据中心的网络延迟,以及不同数据中的网络延迟对于使用与高可用性和灾备的内存数据库的事务有一定量的影响。

维护管理内存数据库

由于内存数据库对内存有着较大的依赖,在管理内存方面,可以考虑使用Resource governor来管理内存数据库。需注意如下:

  • 通过指定Resource governor的hard limit(如80%)来确保其它内部资源和非内存优化表的内存使用量。
  • 每个resource pool可以包含多个内存数据库,但是一个内存数据库在同一时刻只关联一个resource pool。

Memory Usage Report是SSMS自带的监控内存使用量的报表,可以快速的查看现有缓存的内存优化对象的使用情况:

备份在日常维护管理数据库中也极为重要,对持久性内存优化表,内存优化表作为数据库对象中的一部分,被包含在常规数据库备份策略中,故传统的全备、差异备份、日志备份策略无需更改,即可实现对内存优化表的备份。

...
浏览 : 7734 阅读全文

重新组织和重新生成索引

Sun, 05 Oct 2014 12:28:12 GMT

无论何时对基础数据执行插入、更新或删除操作,SQL Server 数据库引擎都会自动维护索引。随着时间的推移,这些修改可能会导致索引中的信息分散在数据库中(含有碎片)。当索引包含的页中的逻辑排序(基于键值)与数据文件中的物理排序不匹配时,就存在碎片。碎片非常多的索引可能会降低查询性能,导致应用程序响应缓慢。有关详细信息,请参阅此 Microsoft 网站

您可以通过重新组织索引或重新生成索引来修复索引碎片。对于基于分区方案生成的已分区索引,可以在完整索引或索引的单个分区上使用下列方法之一。

 

决定使用哪种碎片整理方法的第一步是分析索引以确定碎片程度。通过使用系统函数 sys.dm_db_index_physical_stats,您可以检测特定索引、表或索引视图的所有索引、数据库中所有索引或所有数据库中所有索引中的碎片。对于已分区索引,sys.dm_db_index_physical_stats 还提供每个分区的碎片信息。

由 sys.dm_db_index_physical_stats 函数返回的结果集包含以下列。

 

说明

avg_fragmentation_in_percent

逻辑碎片(索引中的无序页)的百分比。

fragment_count

索引中的碎片(物理上连续的叶页)数量。

avg_fragment_size_in_pages

索引中一个碎片的平均页数。

知道碎片程度后,可以使用下表确定修复碎片的最佳方法。

 

avg_fragmentation_in_percent 值

修复语句

> 5% 且 < = 30%

ALTER INDEX REORGANIZE

> 30%

ALTER INDEX REBUILD WITH (ONLINE = ON)*

* 重新生成索引可以联机执行,也可以脱机执行。重新组织索引始终联机执行。若要获得与重新组织选项相似的可用性,应联机重新生成索引。

这些值提供了一个大致指导原则,用于确定应在 ALTER INDEX REORGANIZE 和 ALTER INDEX REBUILD 之间进行切换的点。不过,实际值可能会随情况而变化。必须要通过试验来确定最适合您环境的阈值。

非常低的碎片级别(小于 5%)不应通过这些命令来解决,因为删除如此少量的碎片所获得的收益始终远低于重新组织或重新生成索引的开销。

注意注意

通常,小索引中的碎片是不可控制的。小索引的页面存储在混合区中。混合区最多可由八个对象共享,因此在重新组织或重新生成小索引之后可能不会减少该索引中的碎片。有关混合区的详细信息,请参阅页和区

示例

下面的示例查询 sys.dm_db_index_physical_stats 动态管理函数以返回 Production.Product 表的所有索引的平均碎片。通过使用上面的表,建议的解决方法是重新组织PK_Product_ProductID 并重新生成其他索引。

 
 
USE AdventureWorks2008R2;
GO
SELECT a.index_id, name, avg_fragmentation_in_percent
FROM sys.dm_db_index_physical_stats (DB_ID(), OBJECT_ID(N'Production.Product'),
     NULL, NULL, NULL) AS a
    JOIN sys.indexes AS b ON a.object_id = b.object_id AND a.index_id = b.index_id;
GO

此语句可能会返回类似于以下形式的结果集。

 
 
index_id    name                        avg_fragmentation_in_percent
----------- --------------------------- ----------------------------
1           PK_Product_ProductID        15.076923076923077
2           AK_Product_ProductNumber    50.0
3           AK_Product_Name             66.666666666666657
4           AK_Product_rowguid          50.0

(4 row(s) affected)

 

若要重新组织一个或多个索引,可以使用带 REORGANIZE 子句的 ALTER INDEX 语句。此语句可以替代 DBCC INDEXDEFRAG 语句。若要重新组织已分区索引的单个分区,可以使用 ALTER INDEX 的 PARTITION 子句。

重新组织索引是通过对叶页进行物理重新排序,使其与叶节点的逻辑顺序(从左到右)相匹配,从而对表或视图的聚集索引和非聚集索引的叶级别进行碎片整理。使页有序可以提高索引扫描的性能。索引在分配给它的现有页内重新组织,而不会分配新页。如果索引跨多个文件,将一次重新组织一个文件,不会在文件之间迁移页。

重新组织还会压缩索引页。如果还有可用的磁盘空间,将删除此压缩过程中生成的所有空页。压缩基于 sys.indexes 目录视图中的填充因子值。

重新组织进程使用最少的系统资源。而且,重新组织是自动联机执行的。该进程不持有长期阻塞锁,所以不会阻止运行查询或更新。

索引碎片不太多时,可以重新组织索引。请参阅上面的表,了解有关碎片的指导原则。不过,如果索引碎片非常多,重新生成索引则可以获得更好的结果。

大型对象数据类型压缩

重新组织索引时,除了重新组织一个或多个索引外,默认情况下还将压缩聚集索引或基础表中包含的大型对象数据类型 (LOB)。数据类型imagetextntextvarchar(max)nvarchar(max)varbinary(max) 和 xml 都是大型对象数据类型。压缩此数据可以改善磁盘空间使用情况:

  • 重新组织指定的聚集索引将压缩该聚集索引的叶级别(数据行)包含的所有 LOB 列。

  • 重新组织非聚集索引将压缩该索引中属于非键(包含性)列的所有 LOB 列。

  • 如果指定 ALL,将重新组织与指定的表或视图相关联的所有索引,并压缩与聚集索引、基础表或带有包含列的非聚集索引相关联的所有 LOB 列。

  • 如果 LOB 列不存在,则忽略 LOB_COMPACTION 子句。

 

重新生成索引将删除该索引并创建一个新索引。此过程中将删除碎片,通过使用指定的或现有的填充因子设置压缩页来回收磁盘空间,并在连续页中对索引行重新排序(根据需要分配新页)。这样可以减少获取所请求数据所需的页读取数,从而提高磁盘性能。

可以使用下列方法重新生成聚集索引和非聚集索引:

  • 带 REBUILD 子句的 ALTER INDEX。此语句将替换 DBCC DBREINDEX 语句。

  • 带 DROP_EXISTING 子句的 CREATE INDEX。

每个方法执行的功能都相同,但如下表所示,也都各有优缺点需要考虑。

 

功能

ALTER INDEX REBUILD

CREATE INDEX WITH DROP_EXISTING

可以通过添加或删除键列、更改列顺序或更改列排序顺序来更改索引定义。*

是**

可以设置或修改索引选项。

可以在单个事务中重新生成多个索引。

可以联机重新生成大部分索引类型,而不会阻止运行查询或更新。

已分区索引可以重新分区。

可以将索引移动到另一个文件组中。

需要额外的临时磁盘空间。

重新生成聚集索引的操作将重新生成相关的非聚集索引。

除非指定关键字 ALL。

除非更改索引定义。

可以重新生成强制 PRIMARY KEY 和 UNIQUE 约束的索引,而不用删除并重新创建这些约束。

可以重新生成单个索引分区。

* 通过在索引定义中指定 CLUSTERED,可以将非聚集索引转换成聚集索引类型。执行此操作时必须将 ONLINE 选项设置为 OFF。不管将 ONLINE 设置成什么,都不支持从聚集索引到非聚集索引的转换。

** 如果通过使用相同的名称、列和排序顺序重新创建索引,则可以省略排序操作。重新生成操作将检查行是否在生成索引时进行了排序。

您也可以先使用 DROP INDEX 语句删除索引,然后使用一个单独的 CREATE INDEX 语句重新创建该索引,通过这种方式重新生成索引。将这些操作作为单独的语句执行有许多缺点,因此不推荐这样做。

 

禁用非聚集索引后,将删除索引数据行,但索引定义仍在元数据中。重新生成索引后即启用该索引。如果不禁用非聚集索引,重新生成操作需要足够的临时磁盘空间才能同时存储新旧索引。但是,通过在单独的事务中禁用并重新生成非聚集索引,禁用索引所释放的磁盘空间可重新用于随后的重新生成或其他任何操作。除用于排序的临时磁盘空间外不需要额外空间,用于排序的临时磁盘空间通常是索引大小的 20%。如果非聚集索引在主键上,将自动禁用引用 FOREIGN KEY 的任何活动约束。必须在重新生成索引后手动启用这些约束。有关详细信息,请参阅禁用索引启用索引和约束指南

 

带有多于 128 个区的索引通过两个单独的阶段重新生成:逻辑阶段和物理阶段。在逻辑阶段,索引使用的现有分配单元被标记为取消分配,数据行被复制并排序然后移动到为存储重新生成的索引而创建的新分配单元中。在物理阶段,先前标记为取消分配的分配单元在发生在后台的短事务中被物理删除,而且不需要很多锁。有关详细信息,请参阅删除并重新生成大型对象

 

重新组织索引时不能指定索引选项。但是,通过使用 ALTER INDEX REBUILD 或 CREATE INDEX WITH DROP_EXISTING,可以在重新生成索引时设置下列索引选项:

 

PAD_INDEX

DROP_EXISTING(仅 CREATE INDEX)

FILLFACTOR

ONLINE

SORT_IN_TEMPDB

ALLOW_ROW_LOCKS

IGNORE_DUP_KEY

ALLOW_PAGE_LOCKS

STATISTICS_NORECOMPUTE

MAXDOP

注意注意

如果不需要执行排序操作,或者可以在内存中进行排序,则忽略 SORT_IN_TEMPDB 选项。

另外,ALTER INDEX 语句中的 SET 子句允许您设置下列索引选项,而不用重新生成索引:

 

ALLOW_PAGE_LOCKS

IGNORE_DUP_KEY

ALLOW_ROW_LOCKS

STATISTICS_NORECOMPUTE

有关详细信息,请参阅设置索引选项

重新生成或重新组织索引

ALTER INDEX (Transact-SQL)

通过在一个步骤中删除并重新创建索引来重新生成索引

CREATE INDEX (Transact-SQL)

 

示例
 

A. 重新生成索引

以下示例将重新生成单个索引。

 
USE AdventureWorks2008R2;
GO
ALTER INDEX PK_Employee_BusinessEntityID ON HumanResources.Employee
REBUILD;
GO


B. 重新生成表的所有索引并指定选项

下面的示例指定了 ALL 关键字。这将重新生成与表相关联的所有索引。其中指定了三个选项。

 
USE AdventureWorks2008R2;
GO
ALTER INDEX ALL ON Production.Product
REBUILD WITH (FILLFACTOR = 80, SORT_IN_TEMPDB = ON,
              STATISTICS_NORECOMPUTE = ON);
GO


C. 通过 LOB 压缩重新组织索引

下面的示例重新组织单个聚集索引。因为该索引在叶级别包含 LOB 数据类型,所以该语句还会压缩所有包含该大型对象数据的页。请注意,不必指定 WITH (LOB_Compaction) 选项,因为默认值为 ON。

 
USE AdventureWorks2008R2;
GO
ALTER INDEX PK_ProductPhoto_ProductPhotoID ON Production.ProductPhoto
REORGANIZE ;
GO

 

...
浏览 : 7890 阅读全文

SQLServer 2008 索引碎片和解决方法

Sat, 27 Sep 2014 00:21:55 GMT

毫无疑问,给表添加索引是有好处的,你要做的大部分工作就是维护索引,

在数据更改期间索引可能产生碎片,所以一些维护是必要的。碎片可能是你查询产生性能问题的来源。  

那么到底什么是索引碎片呢?索引碎片实际上有

2种形式:外部碎片和内部碎片。不管哪种碎片基本上都会影响索引内页的使用。这也许是因为页的逻辑顺序错误(即外部碎片)或每页存储的数据量少于数据页的容量(内部错误)

无论索引

产生了哪种类型的碎片,你都会因为它而面临查询的性能问题。 

外部碎片 

当索引页不在逻辑顺序上时就会产生外部碎片。索引创建时,索引键按照逻辑顺序放在一组索引页上。当新数据插入索引时,新的键可能放在存在的键之间。了让新的键按照正确的顺序插入,可能会创建新的索引页来存储需要移动的那些存在的键。这些新的索引页通常物理上不会和那些被移动的键原来所在的页相邻。创建新页的过程会引起索引页偏离逻辑顺序。 

下面的例子将比实际的言论更加清晰的解释这个概念。 

假定在任何另外的数据插入你的表之前存在索引上的结构如下 

(注:下面图片里应该是78,原文里是68):

 

SQLServer索引碎片和解决方法 - 鹰击长空 - 向左向右

 

INSERT语句往索引里添加新的数据,假定添加的是5

INSERT将引起新页创建,为了给5在原来的页上留出空间,78被移到了新页上。这个创建将引起索引页偏离逻辑顺序。 

 

 

SQLServer索引碎片和解决方法 - 鹰击长空 - 向左向右

  

在有特定搜索或者返回无序结果集的查询的情况下,偏离顺序的索引页不会引起问题。对于返回有序结果集的查询,搜索那些无序的索引页需要进行额外的处理。有序结果集的例子如查询返回410之间的记录。为了返回

78,查询不得不进行额外的页切换。虽然一个额外的页切换在一个长时间运行里是无关紧要的,然而想象一下一个有好几百页偏离顺序的非常大的表的情形。 

 

内部碎片 

当索引页没有用到最大量时就产生了内部碎片。虽然在一个有频繁数据插入的应用程序里这也许有帮助,然而设置一个fill factor(填充因子)会在索引页上留下空间,服务器内部碎片会导致索引尺寸增加,从而在返回需要的数据时要执行额外的读操作。这些额外的读操作会降低查询的性能。 

怎样确定索引是否有碎片?

SQLServer提供了一个数据库命令――DBCC SHOWCONTIG――来确定一个指定的表或索引是否有碎片。  

DBCC SHOWCONTIG 数据库平台命令,用来显示指定的表的数据和索引的碎片信息。 

DBCC SHOWCONTIG 权限默认授予 

sysadmin固定服务器角色或 db_owner  db_ddladmin

固定数据库角色的成员以及表的所有者且不可转让。

语法(SQLServer2008 

DBCC SHOWCONTIG  

[ ( { table_name | table_id| view_name | view_id }  

[ , index_name | index_id ]  

)  

]  

[ WITH { ALL_INDEXES  

| FAST [ , ALL_INDEXES ]  

| TABLERESULTS [ , { ALL_INDEXES } ]  

[ , { FAST | ALL_LEVELS } ]  

]

 

语法(

SQLServer7.0

 

 

DBCC SHOWCONTIG  

[ ( table_id [,index_id ]  

)  

]

 

示例: 

显示数据库里所有索引的碎片信息 

SET NOCOUNT ON 

USE pubs 

DBCC SHOWCONTIG WITH ALL_INDEXES 

GO 

 

显示指定表的所有索引的碎片信息 

SET NOCOUNT ONUSE pubs 

DBCC SHOWCONTIG (authors) WITH ALL_INDEXES 

GO 

 

显示指定索引的碎片信息 

SET NOCOUNT ON 

USE pubs 

DBCC SHOWCONTIG (authors,aunmind) 

GO 

 

结果集  

DBCC SHOWCONTIG

将返回扫描页数、扫描扩展盘区数、遍历索引或表的页时,DBCC 句从一个扩展盘区移动到其它扩展盘区的次数、每个扩展盘区的页数、扫描密度

(最佳值是指在一切都连续地链接的情况下,扩展盘区更改的理想数目)。 

DBCC SHOWCONTIG 

正在扫描 'authors' ...

: 'authors'

1977058079

); 

索引

 ID: 1

,数据库 ID: 5 已执行 TABLE 级别的扫描。 

扫描页数.....................................: 1

扫描扩展盘区数...............................: 1

扩展盘区开关数...............................: 0 

每个扩展盘区上的平均页数.....................: 1.0 

扫描密度[最佳值:实际值]....................: 100.00%1:1 

逻辑扫描碎片.................................: 0.00% 

扩展盘区扫描碎片.............................: 0.00%  

每页上的平均可用字节数.......................: 6010.0 

平均页密度(完整)...........................: 25.75% 

DBCC 执行完毕。如果 DBCC 

输出了错误信息,请与系统管理员联系。 

 

寻找什么 

 

扫描页数:

如果你知道行的近似尺寸和表或索引里的行数,那么你可以估计出索引里的页数。看看扫描页数如果明显比你估计的页数要高说明存在内部碎片。 

扫描扩展盘区数:

用扫描页数除以8,四舍五入到下一个最高值。该值应该和DBCC SHOWCONTIG

返回的扫描扩展盘区数一致。如果DBCC SHOWCONTIG返回的数高,

说明存在外部碎片。碎片的严重程度依赖于刚才显示的值比估计值高多少。 

扩展盘区开关数:

该数应该等于扫描扩展盘区数减1。高了则说明有外部碎片。 

每个扩展盘区上的平均页数:

该数是扫描页数除以扫描扩展盘区数,一般是8小于8说明有外部碎片。 

扫描密度[最佳值实际值]:DBCC SHOWCONTIG返回最有用的一个百分比。这是扩展盘区的最佳值和实际值的比率。该百分比应该尽可能靠近100%。低了则

说明有外部碎片。 

逻辑扫描碎片:无序页的百分比。该百分比应该在0%到10%之间,高了则说明有外部碎片。 

扩展盘区扫描碎片:无序扩展盘区在扫描索引叶级页中所占的百分比。

该百分比应该0%,高了则说明有外部碎片。 

每页上的平均可用字节数:所扫描的页上的平均可用字节数。越高说明有内部碎片,不过在你用这个数字决定是否有内部碎片之前,应该考虑fill factor

(填充因子)。 

平均页密度(完整):每页上的平均可用字节数的百分比的相反数。低的百分比

说明有内部碎片。 

 

备注 

DBCC SHOWCONTIG

实际上仅对那些大表有用。小表显示的结果根本不符合正常标准,因为他们也许没有由多于8个的页面组成。你在查看小表上执行DBCC SHOWCONTIG

的结果时应该忽略一些结果。在处理小表时只需关心扩展盘区开关

数、逻辑扫描碎片、每页上的平均可用字节数、平均页密度(完整)。 

DBCC SHOWCONTIG

默认输出的结果是:扫描页数、扫描扩展盘区数、扩展盘区开

关数、每个扩展盘区上的平均页数、扫描密度[最佳值实际值]、逻辑扫描碎片、扩展盘区扫描碎片、每页上的平均可用字节数、平均页密度(完整)。可以

FASTTABLERESULTS选项来控制这个输出结果。FAST选项指定执行索引的快速扫描,输出结果是最小的,该选项不读索引的叶或数据页且只返回扫描页数、扫描扩展盘区数、扫描密度[最佳值:实际值]、逻辑扫描碎片。 

TABLERESULTS选项将用行集的形式显示信息,将返回扩展盘区开关数、扫描密度[最佳值:实际值]、逻辑扫描碎片、扩展盘区扫描碎片、每页上的平均可用字节数、平均页密度(完整)。如果既指定FAST选项又指定TABLERESULTS

选项,那么将返回对象名、对象ID索引名、索引ID,页数、扩展盘区开关数、扫描密度[最佳值:实际值]和逻辑扫描碎片。   ALL_INDEXES选项将显示指定表和试图的所有索引的结果,即使指定了一个索引。  ALL_LEVELS

选项指定是否为所处理的每个索引的每个级别产生输出(默认只输出索引的页级或表数据级的结果),并且只能与 TABLERESULTS 选项一起使用。

 

  解决碎片问题 

一旦你确定表或索引有碎片问题,那么你有4个选择去解决那些问题: 

1. 删除并重建索引 

2. 使用DROP_EXISTING子句重建索引 

3. 执行DBCC DBREINDEX 

4. 执行DBCC INDEXDEFRAG 

 

尽管每一个技术都能达到你整理索引碎片的最终目的,但各有各的优缺点。 

删除并重建索引 

DROP INDEXCREATE INDEXALTER TABLE来删除并重建索引有些缺陷包括在删除重建期间索引会消失。在索引删除重建时,对于查询它不在可用,

查询性能也许会受到明显的影响,直到重建索引为止。另一个潜在的缺陷是当都请求索引的时候会引起阻塞,直到重建索引为止。通过其他的处理也能解决阻塞,就是索引被使用的时候不删除索引。另一个主要的缺陷是在用

DROP INDEXCREATE INDEX重建聚集索引时会引起非聚集索引重建两次。

删除聚集索引时非聚集索引的行指针会指向数据堆,聚集索引重建时非聚集索引的行指针又会指回聚集索引的行位置。 删除并重建索引的确有一个好处就是通过重新排序索引页,使索引页紧凑并删除不需要的索引页来完全重建索引。你也许需要考虑那些内部和外部碎片都很高的

...
浏览 : 11130 阅读全文
DROP INDEX ShareALLParentID ON ShareALL
 
CREATE NONCLUSTERED INDEX ShareALLParentID ON ShareALL(ParentID) 
 
-- 查看某個表的索引
SELECT * FROM sys.sysindexes
 
WHERE id=object_id('Dev_ShareALL')
 
-- 查看整個庫的索引
SELECT * FROM sys.sysindexes
 
-- 查看所有庫的索引
IF object_id('tempdb..#')IS NOT NULL
    DROP TABLE #
SELECT * INTO # FROM sys.sysindexes WHERE 1=2
 
INSERT INTO #
    EXEC sys.sp_MSforeachdb @command1='Select * from ?.sys.sysindexes'
     
SELECT * FROM #
 
DROP INDEX index_name ON talbe_name
 
DBCC SHOWCONTIG
 
显示数据库里所有索引的碎片信息
SET NOCOUNT ON
USE pubs
DBCC SHOWCONTIG WITH ALL_INDEXES 
 
显示指定表的所有索引的碎片信息
SET NOCOUNT ONUSE pubs
DBCC SHOWCONTIG (authors) WITH ALL_INDEXES
 
显示指定索引的碎片信息
SET NOCOUNT ON USE pubs
DBCC SHOWCONTIG (authors,aunmind)
 
显示指定索引的碎片信息
SET NOCOUNT ON USE pubs
DBCC SHOWCONTIG (authors,aunmind)
 
索引重建
DBCC DBREINDEX('ShareALL','',70)
 
查询索引
DBCC SHOWCONTIG(ShareALL)
--备份数据库
BACKUP DATABASE www.yakop.com TO DISK='d:\yakop20140906.bak'
--清空日志
DUMP TRANSACTION www.yakop.com WITH NO_LOG        
--截断事务日志   
BACKUP LOG www.yakop.com WITH NO_LOG      
--收缩数据库   
DBCC SHRINKDATABASE(www.yakop.com)   
--设置自动收缩
EXEC SP_DBOPTION www.yakop.com,AUTOSHRINK,TRUE
 
...
浏览 : 8360 阅读全文

死锁和堵塞一直是性能测试执行中关注的重点。

下面是我整理的监控sql server数据库,在性能测试过程中是否出现死锁、堵塞的SQL语句,还算比较准备,留下来备用。

--每秒死锁数量

[html] view plaincopy
 
  1. SELECT  *  
  2. FROM    sys.dm_os_performance_counters  
  3. WHERE   counter_name LIKE 'Number of Deadlocksc%';  


--查询当前阻塞

[html] view plaincopy
 
  1. WITH    CTE_SID ( BSID, SID, sql_handle )  
  2.           AS ( SELECT   blocking_session_id ,  
  3.                         session_id ,  
  4.                         sql_handle  
  5.                FROM     sys.dm_exec_requests  
  6.                WHERE    blocking_session_id <> 0  
  7.                UNION ALL  
  8.                SELECT   A.blocking_session_id ,  
  9.                         A.session_id ,  
  10.                         A.sql_handle  
  11.                FROM     sys.dm_exec_requests A  
  12.                         JOIN CTE_SID B ON A.SESSION_ID = B.BSID  
  13.              )  
  14.     SELECT  C.BSID ,  
  15.             C.SID ,  
  16.             S.login_name ,  
  17.             S.host_name ,  
  18.             S.status ,  
  19.             S.cpu_time ,  
  20.             S.memory_usage ,  
  21.             S.last_request_start_time ,  
  22.             S.last_request_end_time ,  
  23.             S.logical_reads ,  
  24.             S.row_count ,  
  25.             q.text  
  26.     FROM    CTE_SID C   
  27.             JOIN sys.dm_exec_sessions S ON C.sid = s.session_id  
  28.             CROSS APPLY sys.dm_exec_sql_text(C.sql_handle) Q  
  29.     ORDER BY sid  

 

在压力测试过程中,不间断的按F5键执行上面的SQL语句,如果出现死锁或者堵塞现象,就会在执行结果中罗列出来。如果每次连续执行SQL,都有死锁或者堵塞出现,说明死锁或者堵塞的比较严重。

先找出死锁进程的spid,sp_lock,然后用dbcc inputbuffer(spid)

 

...
浏览 : 6851 阅读全文

SQL2008R2的索引重建

Wed, 21 May 2014 01:52:21 GMT

项目升级数据库由SQL2000升级到2008R2,今天对数据库表进行碎片扫描,发现有些表碎片较大,于是决定重建索引,联机帮助是最好的老师,将相关脚本摘录备后查。

参考sys.dm_db_index_physical_stats

  • 检查索引碎片情况
1
2
3
4
5
6
7
8
SELECT
    OBJECT_NAME(object_id) as objectname,
    object_id AS objectid,
    index_id AS indexid,
    partition_number AS partitionnum,
    avg_fragmentation_in_percent AS fra
FROM sys.dm_db_index_physical_stats (DB_ID(), NULL, NULL , NULL, 'LIMITED')
WHERE avg_fragmentation_in_percent > 10.0 AND index_id > 0;
  • 使用脚本中的 sys.dm_db_index_physical_stats 重新生成或重新组织索引 (来源于联机帮助
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
SET NOCOUNT ON;
DECLARE @objectid int;
DECLARE @indexid int;
DECLARE @partitioncount bigint;
DECLARE @schemaname nvarchar(130);
DECLARE @objectname nvarchar(130);
DECLARE @indexname nvarchar(130);
DECLARE @partitionnum bigint;
DECLARE @partitions bigint;
DECLARE @frag float;
DECLARE @command nvarchar(4000);
-- Conditionally select tables and indexes from the sys.dm_db_index_physical_stats function
-- and convert object and index IDs to names.
SELECT
    object_id AS objectid,
    index_id AS indexid,
    partition_number AS partitionnum,
    avg_fragmentation_in_percent AS frag
INTO #work_to_do
FROM sys.dm_db_index_physical_stats (DB_ID(), NULL, NULL , NULL, 'LIMITED')
WHERE avg_fragmentation_in_percent > 10.0 AND index_id > 0;
 
-- Declare the cursor for the list of partitions to be processed.
DECLARE partitions CURSOR FOR SELECT * FROM #work_to_do;
 
-- Open the cursor.
OPEN partitions;
 
-- Loop through the partitions.
WHILE (1=1)
    BEGIN;
        FETCH NEXT
           FROM partitions
           INTO @objectid, @indexid, @partitionnum, @frag;
        IF @@FETCH_STATUS < 0 BREAK;
        SELECT @objectname = QUOTENAME(o.name), @schemaname = QUOTENAME(s.name)
        FROM sys.objects AS o
        JOIN sys.schemas as s ON s.schema_id = o.schema_id
        WHERE o.object_id = @objectid;
        SELECT @indexname = QUOTENAME(name)
        FROM sys.indexes
        WHERE  object_id = @objectid AND index_id = @indexid;
        SELECT @partitioncount = count (*)
        FROM sys.partitions
        WHERE object_id = @objectid AND index_id = @indexid;
 
-- 30 is an arbitrary decision point at which to switch between reorganizing and rebuilding.
        IF @frag < 30.0
            SET @command = N'ALTER INDEX ' + @indexname + N' ON ' + @schemaname + N'.' + @objectname + N' REORGANIZE';
        IF @frag >= 30.0
            SET @command = N'ALTER INDEX ' + @indexname + N' ON ' + @schemaname + N'.' + @objectname + N' REBUILD';
        IF @partitioncount > 1
            SET @command = @command + N' PARTITION=' + CAST(@partitionnum AS nvarchar(10));
        EXEC (@command);
        PRINT N'Executed: ' + @command;
    END;
 
-- Close and deallocate the cursor.
CLOSE partitions;
DEALLOCATE partitions;
 
-- Drop the temporary table.
DROP TABLE #work_to_do;
GO

 

...
浏览 : 7390 阅读全文