Druid连接池

例子:
添加druid依赖:

<dependency>
    <groupId>com.alibaba</groupId>
    <artifactId>druid</artifactId>
    <version>${druid-version}</version>
</dependency>

使用原生的连接池:

<!-- ========================MyBatis DataSource============================  -->
<bean id="dsMybts" class="org.apache.commons.dbcp.BasicDataSource">  
    <property name="url" value="jdbc:mysql://114.215.xxx.xxx:4040/tmg?useUnicode=true&characterEncoding=utf8&zeroDateTimeBehavior=convertToNull" />  
    <property name="username" value="xxx" />  
    <property name="password" value="xxx" />         
    <property name="initialSize" value="10" />
    <property name="maxIdle" value="20" />
    <property name="maxActive" value="50" />        
    <property name="maxWait" value="500" />
    <property name="logAbandoned" value="true" />
    <property name="removeAbandoned" value="true" />
    <property name="removeAbandonedTimeout" value="60" />
    <property name="validationQuery" value="SELECT 1" />
    <property name="testOnBorrow" value="true" />
    <property name="testOnReturn" value="true" />
    <property name="testWhileIdle" value="true" />      
    <property name="defaultAutoCommit" value="true" />
</bean>


<!-- ************************************************************************************************* -->
<!-- *                                        MyBatis 配置                                                                                                 * -->
<!-- ************************************************************************************************* -->
<!-- sqlSessionFactory -->
<bean id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean">  
    <property name="dataSource" ref="dsMybts" /> 
    <property name="mapperLocations" value="classpath*:mybatis/mappers/**/*.xml" /> 
</bean> 

<!-- scan for mappers and let them be autowired -->
<bean class="org.mybatis.spring.mapper.MapperScannerConfigurer">
    <!-- Mapper接口所在包名,Spring会自动查找其下的Mapper -->
    <property name="basePackage" value="com.tmg.dao.mybatis.performance" />
    <property name="sqlSessionFactoryBeanName" value="sqlSessionFactory" />
</bean>

使用druid连接池:

<!-- ===================MyBatis DataSource===============-->
<!-- 使用druid作为数据源连接池-->
<bean id="datasource" class="com.alibaba.druid.pool.DruidDataSource"
      init-method="init" destroy-method="close" >
      <!-- 数据库的配置,host:主机名,port:端口,database:数据库 -->
    <property name="url" value="jdbc:mysql://${mysql.host}:${mysql.port}/${mysql.database}?characterEncoding=utf8" />
    <!-- 连接数据的用户名-->
    <property name="username" value="${mysql.user}" />
    <!-- 连接数据库的密码-->
    <property name="password" value="${mysql.pwd}" />
    <!-- 配置初始化大小、最小、最大 -->
    <property name="initialSize" value="1" />
    <property name="minIdle" value="1" />
    <property name="maxActive" value="20" />
    <!-- 配置获取连接等待超时的时间 -->
    <property name="maxWait" value="30000" />
    <!-- 配置间隔多久才进行一次检测,检测需要关闭的空闲连接,单位是毫秒 -->
    <property name="timeBetweenEvictionRunsMillis" value="60000" />
    <!-- 配置一个连接在池中最小生存的时间,单位是毫秒 -->
    <property name="minEvictableIdleTimeMillis" value="300000" />
    <property name="testWhileIdle" value="true" />
    <!-- 这里建议配置为TRUE,防止取到的连接不可用 -->
    <property name="testOnBorrow" value="true" />
    <property name="testOnReturn" value="false" />
    <!-- 打开PSCache,并且指定每个连接上PSCache的大小 -->
    <property name="poolPreparedStatements" value="false" />
    <!-- 验证连接有效与否的SQL,不同的数据配置不同 -->
    <property name="validationQuery" value="select 1 " />
    <!-- ******重要的配置:监控统计拦截的filters,日志记录 *start* ******-->
    <!-- 并在filters属性中配置了log4j,ref中的bean是下面拦截器的配置 -->
    <!-- proxyFilters和filters是组合关系,前者是根据bean配置,后者根据别名配置的-->
    <!-- stat是statfilter的别名,log4j是logFilter的别名-->
    <!-- 监控统计拦截的filters,日志记录,这里开启了stat,wall(sql翻过墙过滤监控),log4j(log4j的监控)配置 -->
    <property name="proxyFilters">
        <list>
            <ref bean="statfilter" />
            <ref bean="logFilter" />
        </list>
    </property>
    <property name="filters" value="wall" />
    <!--  *end* -->
</bean>

<!-- 慢SQL记录 *start* -->
<bean id="statfilter" class="com.alibaba.druid.filter.stat.StatFilter">
    <!-- 开启合并sql -->
    <property name="mergeSql" value="true" />
    <!-- 开启慢查询语句,1秒 -->
    <property name="slowSqlMillis" value="1000" />
    <property name="logSlowSql" value="true" />
</bean>

<bean id="logFilter" class="com.alibaba.druid.filter.logging.Log4jFilter">
    <!-- <property name="resultSetLogEnabled" value="false" /> -->
    <!-- <property name="statementExecutableSqlLogEnable" value="true" /> -->
</bean>
<!-- 慢SQL记录  *end* -->
<!-- ========================================================-->

<!-- Session Factory -->
<bean id="sqlSessionFactory" class="org.mybatis.spring.SqlSessionFactoryBean">
    <property name="dataSource" ref="datasource"/>
    <property name="mapperLocations" value="classpath:mapper/*mapper.xml"/>
</bean>

<bean class="org.mybatis.spring.mapper.MapperScannerConfigurer">
    <property name="sqlSessionFactoryBeanName" value="sqlSessionFactory"></property>
    <property name="basePackage" value="cn.test.web.mapper"/>
</bean>

使用Filters进行监控统计:
上面的配置文件使用了两种类型的filter,别名配置是通过filters属性配置的,filters属性的类型是String。如:
<property name="filters" value="stat,log4j" />
如果需要通过bean的方式配置,使用proxyFilters属性。如:

<bean id="stat-filter" class="com.alibaba.druid.filter.stat.StatFilter">
<property name="slowSqlMillis" value="10000" />
<property name="logSlowSql" value="true" />
</bean>
<bean id="dataSource" class="com.alibaba.druid.pool.DruidDataSource"
    init-method="init" destroy-method="close">
    ... ...
    <property name="filters" value="log4j" />
    <property name="proxyFilters">
        <list>
            <ref bean="stat-filter" />
        </list>
    </property>
</bean>

配置 wallfilter防止注入攻击<property name="filters" value="wall"/>

使用StatViewServlet展示监控页面:

<!-- 德鲁伊监控平台监控器 -->
<servlet>
    <servlet-name>DruidStatView</servlet-name>
    <servlet-class>com.alibaba.druid.support.http.StatViewServlet</servlet-class>
    <init-param>
        <!-- 允许清空统计数据 -->
        <param-name>resetEnable</param-name>
        <param-value>true</param-value>
    </init-param>
    <init-param>
        <!-- 用户名 -->
        <param-name>loginUsername</param-name>
        <param-value>druid</param-value>
    </init-param>
    <init-param>
        <!-- 密码 -->
        <param-name>loginPassword</param-name>
        <param-value>druid</param-value>
    </init-param>
</servlet>
<servlet-mapping>
    <servlet-name>DruidStatView</servlet-name>
    <url-pattern>/druid/*</url-pattern>
</servlet-mapping>

在web.xml中配置后,可以在 http://host:port/projectName/druid/index.html 访问。

Web关联监控配置 :
在web.xml中配置

<filter>
    <filter-name>DruidWebStatFilter</filter-name>
    <filter-class>com.alibaba.druid.support.http.WebStatFilter</filter-class>
    <init-param>
        <param-name>exclusions</param-name>
        <param-value>*.js,*.gif,*.jpg,*.png,*.css,*.ico,/druid/*</param-value>
    </init-param>

    <!-- druid 0.2.7版本开始支持profile,配置profileEnable能够监控单个url调用的sql列表。-->
    <init-param>
        <param-name>profileEnable</param-name>
        <param-value>true</param-value>
    </init-param>
</filter>
<filter-mapping>
    <filter-name>DruidWebStatFilter</filter-name>
    <url-pattern>/*</url-pattern>
</filter-mapping>

结合Log4j:

# Druid  
log4j.logger.druid.sql=info,A1,A2  
log4j.logger.druid.sql.DataSource=info,A1,A2  
log4j.logger.druid.sql.Connection=info,A1,A2  
log4j.logger.druid.sql.Statement=info,A1,A2  
log4j.logger.druid.sql.ResultSet=info,A1,A2  
  
log4j.appender.A1=org.apache.log4j.DailyRollingFileAppender  
log4j.appender.A1.File=../druid-logs/info_slowsql.log  
log4j.appender.A1.DatePattern='.'yyyy-MM-dd  
#log4j.appender.A1.File=${catalina.home}/logs/info_slowsql.log  
#log4j.appender.A1.File=${WebApp.TomcatHome}/logs/info_slowsql.log  
log4j.appender.A1.ImmediateFlush=true  
log4j.appender.A1.Append=true  
log4j.appender.A1.Threshold=info  
log4j.appender.A1.layout=org.apache.log4j.PatternLayout  
log4j.appender.A1.layout.ConversionPattern=[%d{yyyy-MM-dd HH:mm:ss}] [%p] [%c] - %m%n  
  
log4j.appender.A2=org.apache.log4j.DailyRollingFileAppender  
log4j.appender.A2.File=../druid-logs/warn_slowsql.log  
log4j.appender.A2.DatePattern='.'yyyy-MM-dd  
#log4j.appender.A2.File=${catalina.home}/logs/warn_slowsql.log  
#log4j.appender.A2.File=${WebApp.TomcatHome}/logs/warn_slowsql.log  
log4j.appender.A2.ImmediateFlush=true  
log4j.appender.A2.Append=true  
log4j.appender.A2.Threshold=warn  
log4j.appender.A2.layout=org.apache.log4j.PatternLayout  
log4j.appender.A2.layout.ConversionPattern=[%d{yyyy-MM-dd HH:mm:ss}] [%p] [%c] - %m%n
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,772评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,458评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,610评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,640评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,657评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,590评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,962评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,631评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,870评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,611评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,704评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,386评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,969评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,944评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,179评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,742评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,440评论 2 342

推荐阅读更多精彩内容