摘要: 执行更新统计信息语句: exec dbms_stats.gather_schema_stats(ownname=>'LIVE_KS',degree=>2,cascade=>true,options=>'GATHER AUTO',estimate_percent=>DBMS_STATS.AUTO_SA 阅读全文
posted @ 2019-12-03 15:43 caljosiju 阅读(790) 评论(0) 推荐(0) 编辑
摘要: 对比CE7和2014 CE12的区别: 1.表连接中连接列估算方式 老CE对所有参与连接列的统计信息step进行逐个估算。新CE只对于最大和最小step统计信息进行收集估算,在连接列的值分布不均匀的时候,老CE拥有更准确的估算。 2.对于where语句多条件估算 老CE认为各个条件独立计算,不存在相 阅读全文
posted @ 2019-11-29 11:05 caljosiju 阅读(496) 评论(0) 推荐(0) 编辑
摘要: 问题SQL: SELECT TOP 1001 ha.HuntApplicationID , ha.PartyNumber , mht.Name AS MasterHuntTypeName , htly.LicenseYear , lStatus.[Status] AS DrawTicketStatu 阅读全文
posted @ 2019-11-28 19:32 caljosiju 阅读(320) 评论(0) 推荐(0) 编辑
摘要: 日常运行的批量更新作业,平日是5分钟之内结束,今天出现超过30分钟没结束的情况,实际运行3个小时以上,应用程序超时报错。 数据库版本:SQL Server 2016企业版 问题SQL: declare @batch integer, @min integer, @max integer, @coun 阅读全文
posted @ 2019-11-28 19:19 caljosiju 阅读(310) 评论(0) 推荐(0) 编辑
摘要: 如果用户需要远程sysdba的方式登陆,需要grant sysdba权限,登陆后以sys用户执行命令,需要验证密码文件。 密码文件如果是从12c之前的老版本同步过来,需要重建12c格式的密码文件。 dba角色默认授予用户,登陆后不以sys用户执行命令,不需要密码文件登陆。 阅读全文
posted @ 2019-11-13 21:35 caljosiju 阅读(227) 评论(0) 推荐(0) 编辑
摘要: 今天在性能测试过程中发现大量阻塞报警,检查whoisactive(https://github.com/amachanic/sp_whoisactive/)数据发现,阻塞blocking头部session当前执行的语句如下: <?query — (@p0 int,@p1 datetime,@p2 b 阅读全文
posted @ 2019-11-06 09:52 caljosiju 阅读(265) 评论(0) 推荐(0) 编辑
摘要: 兼容性测试: 测试脚本: 环境:windows failover cluster 主库执行脚本: 兼容性测试: 测试脚本: 环境:windows failover cluster 主库执行脚本: USE [master]GOALTER AVAILABILITY GROUP [test_AG]MODI 阅读全文
posted @ 2019-11-01 17:06 caljosiju 阅读(244) 评论(0) 推荐(0) 编辑
摘要: 产品环境sql server database的mail发不出邮件,影响客户的业务,在数据库中进行诊断 诊断sql: EXEC msdb.dbo.sp_send_dbmail @profile_name = 'DB Messaging', @recipients = 'jamesz@gmail.co 阅读全文
posted @ 2019-10-31 18:03 caljosiju 阅读(403) 评论(0) 推荐(0) 编辑
摘要: 企业核心业务系统oltp的数据需要通过ETL同步到数据仓库,原始的ETL流程通过定制化从SQL Server中进行数据抽取,经过生产环境的监控,发现ETL过程的query会对生产系统造成额外负载。于是制定了通过cdc进行增量数据同步的方案: 方案选型中比对了SQL server的trigger,CT 阅读全文
posted @ 2019-10-23 10:09 caljosiju 阅读(1142) 评论(0) 推荐(1) 编辑
摘要: 原始SQL: 原始SQL在执行过程中经过几小时未完成,查看sql统计信息: Back to Plan 1(PHV: 3689516641) Execution Plan 表数据量非常大,根据created_date时间字段分区,ID字段进行子hash分区,上面建立了基于ID字段的global has 阅读全文
posted @ 2019-10-15 15:16 caljosiju 阅读(375) 评论(0) 推荐(0) 编辑