摘要: delete 多表删除的使用1、从数据表t1中把那些id值在数据表t2里有匹配的记录全删除掉DELETE t1 FROM t1,t2 WHERE t1.id=t2.id或DELETE FROM t1 USING t1,t2 WHERE t1.id=t2.id2、从数据表t1里在数据表t2里没有匹配的记录查找出来并删除掉DELETE t1 FROM t1 LEFT JOIN T2 ON t1.id=t2.id WHERE t2.id IS NULL或DELETE FROM t1,USING t1 LEFT JOIN T2 ON t1.id=t2.id WHERE t2.id IS NULL3、从 阅读全文
posted @ 2014-01-05 19:30 电工男 阅读(165) 评论(0) 推荐(0) 编辑
摘要: 转载自:http://www.tracefact.net/Asp-Net/CascadingDropDown.aspx引言级联式下拉框,有时也叫联动下拉框,也是Web页面中一个很常见的功能。就是假设有若干个下拉框,比如说有3个,分别显示 省份、城市、街道,当选择某一省份后,城市下拉框仅显示属于该省的城市,选择好城市之后,街道下拉框仅显示属于该城市的街道。记得以前做Asp的时候,做一个类似这样的下拉框需要花费不少的力气,编写不少的javascript代码。如今到了Asp.Net时代,使用Ajax Control Toolkit中的CascadingDropDown控件,再配合普通的DropDow 阅读全文
posted @ 2014-01-05 13:33 电工男 阅读(142) 评论(0) 推荐(0) 编辑
摘要: 1.创建链接2.创建DIV3.创建表单项4.创建表格注意:一定要有tbody,否则IE下不能创建表格,FF下可以! 阅读全文
posted @ 2014-01-04 22:00 电工男 阅读(294) 评论(0) 推荐(0) 编辑
摘要: 公司有个项目要求解压缩操作,一直在使用WinRar和Gzip一个有版权问题,一个效率存在问题,因此决定找一个开源高效的第三方插件。这个时候DotNetZip映入眼帘,他不仅仅能压缩,还能分卷压缩,对中文的至此也是很好。但这些都是在网络上查找时大家说的,基本没见代码如何写,DotNetZip本身使用简单,DLL也不是很大,所以我就使用到项目内。但在使用的过程中发现分卷压缩到底如何实现?解压中文依旧有问题?找了很多资料居然没这个方面的东西,没办法只好去官方查找资料。官方地址:http://dotnetzip.codeplex.com/。在官方看到一些信息不过没看到关于分卷压缩的内容,只好一点一点看 阅读全文
posted @ 2013-12-28 13:16 电工男 阅读(1808) 评论(1) 推荐(0) 编辑
摘要: 网站性能优化:cache-control设置详解很多与网站性能优化相关的帖子,大多只讲了应该怎么做,应该怎么设置,没有太多讲这些设置的相关解释及案例。此文重点介绍网站缓存cache-control,即哪些页面,哪些资源应该做网站缓存?并用京东的cache-control设置为案例做参考。http响应头信息与搜索引擎蜘蛛,网站速度有着密切关系。通过设置相关头信息可以提高搜索引擎蜘蛛及用户的访问速度,提升网站有效内容的抓取量.下面重点介绍cache-controlcache-control是用于控制网页的缓存.常见的取值有private、no-cache、max-age、must- revalid 阅读全文
posted @ 2013-12-07 21:43 电工男 阅读(6206) 评论(0) 推荐(1) 编辑
摘要: 一直以来没有留意过HTTP请求头的IMS(If-Modified-Since)标签。 最近在分析Squid的access.log日志文件时,发现了一个现象。 就是即使是对同一个文件进行HTTP请求,第一次和第二次产生的网络流量数据也是不一致的。 在调查的过程中,逐渐了解了HTTP的If-Modified-Since的头标签的作用。 大家都知道客户端浏览器是有缓存的,里面存放之前访问过的一些网页文件。 例如IE,会把缓存文件存到“C:Documents and Settingszh2000gLocal SettingsTemporary Internet Files” 这样类似的... 阅读全文
posted @ 2013-12-07 11:16 电工男 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 2012-03-07 11:59:00 浏览数(3048) 评论数(0)来自百度站长俱乐部的消息:百度网页搜索spider(也就是大家俗称的百度爬虫、百度蜘蛛)的User-Agent字段内容于2011年5月10日更新。查看网站日志时会发现,以前baiduspider在爬取网页时,发送请求的User-Agent字段是这样的:Baiduspider+(+http://www.baidu.com/search/spider.htm)更新后的baiduspider User-Agent字段内容内容为:Mozilla/5.0 (compatible; Baiduspider/2.0; +http:/.. 阅读全文
posted @ 2013-11-19 10:31 电工男 阅读(781) 评论(0) 推荐(0) 编辑
摘要: https://github.com/tianqiq/CloudStore.git 阅读全文
posted @ 2013-11-19 10:01 电工男 阅读(179) 评论(0) 推荐(0) 编辑
摘要: using System;using System.Collections.Generic;using System.Text;using System.Net;using System.Web;using System.IO;using System.Collections;using System.Text.RegularExpressions;namespace chinaz{ class Program { static void Main(string[] args) { string cookie = null; ... 阅读全文
posted @ 2013-11-19 09:46 电工男 阅读(503) 评论(0) 推荐(0) 编辑
摘要: 百度爬虫 * Baiduspider+(+http://www.baidu.com/search/spider.htm”) google爬虫 * Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html) * Googlebot/2.1 (+http://www.googlebot.com/bot.html) * Googlebot/2.1 (+http://www.google.com/bot.html) 雅虎爬虫(分别是雅虎中国和美国总部的爬虫) ... 阅读全文
posted @ 2013-11-19 09:43 电工男 阅读(256) 评论(0) 推荐(0) 编辑