索引原理

一.索引原理:       为认识索引工作原理,首先有必要对数据表的基本结构作一次全面的复习。    当一个新表被创建之时,系统将在磁盘中分配一段以8K为单位的连续空间,当字段的值从内存写入磁盘时,就在这一既定空间随机保存,当一个8K用完的时候,SQLS指针会自动分配一个8K的空间。这里,每个8K空间被称为一个数据页(Page),又名页面或数据页面,并分配从0-7的页号,每个文件的第0页记录引导信

首先打开nginx.conf文件,在fastcgi_temp_file_write_size 128k; 下面添加 fastcgi_intercept_errors on;注意,包括;号 然后在需要定义的站点的里面添加 error_page 404 = /404.htm; 代码如下: server { listen 80; server_name www.deepvps.com; index in

插件描述:autocompleter是一个简单的,容易的,可定制的自动完成功能插件,支持缓存。 使用方法: 添加引用 最低要求:jquery.autocompleter.css和jquery.autocompleter.min.js。 脚本: 1 2 < script  src = "js/jquery.js"  type = "text/javascript" ></ script > < sc

http://blog.csdn.net/sqh201030412/article/details/51211551 首先看一下从淘宝输入搜索关键字获取到的一些数据信息: 第一张:使用拼音的全程来查询 可以看到提示的是匹配的转换的拼音的方式,看最后一个提示项 这里还有一个在指定分类目录下搜索的功能,难道后台还存储的类目的信息? 还有一个标签的信息要存储 第二使用首字母来匹配 这里看不出来 淘宝的东

需要了解跟时间相关的三个modelField, DateTimeField和DateField和TimeField 存储的内容分别对应着datetime(),date(),time()三个对象。     对于auto_now和auto_now_add。两者默认值都为False。     auto_now=Ture,字段保存时会自动保存当前时间,但要注意每次对其实例执行save()的时候都会将当前时

上传图片(大小2M),出现 nginx: 413 Request Entity Too Large 错误。 原来nginx默认上传文件的大小是1M,可nginx的设置中修改。 解决方法如下: 1.打开nginx配置文件 nginx.conf, 路径一般是:/etc/nginx/nginx.conf。 2.在http{}段中加入 client_max_body_size 10m; 20m为允许最大上

Solr的defType有dismax/edismax两种,这两种的区别,可参见:http://blog.csdn.net/duck_genuine/article/details/8060026   下面示例用于演示如下场景: 有一网站,在用户查询的结果中,需要按这样排序: VIP的付费信息需要排在免费信息的前头 点击率越高越靠前 发布时间越晚的越靠前   这样的查询排序使用普通的查询结果的Or

首先,不知道大家在前面的例子中没有试着搜索文本串,就是在第二节,我们添加了很多文档。如果字段值是一个文本。你如果只搜索这个字段的某个单词,是不是发现搜不到? 这就是因为我们没有配置Analyzer,因此在搜索的时候会“全匹配”。可以从直观感觉上理解为SQL的  like和= 的区别。 通过前面这段引文,我们就能知道:Analyzer就是分析我们的文本的。 一般来说:solr.TextField类型

1.首先下载solr。http://mirror.bjtu.edu.cn/apache/lucene/solr/3.6.1/apache-solr-3.6.1.zip下载解压即可 cd example/ java -jar start.jar 即可启动solr了,可以进入http://localhost:8983/solr/admin/看看效果。 ps. 这里有个地方要注意的,将solr/conf

首先弄清楚几个概念: Document:Solr的信息的基本单位的是Document,它是一组描述某些事物的数据集合。 Field:Document的主要构成单元,是更具体的信息描述。      其实大家可以这样理解,Document 对应于我们Java代码中的一个类,而Field,则是类中的一个属性。 Field Analysis:就是solr如何对传进来的数据进行处理,如果构建索引。假设有个个

1 2 3 4 5 6 7 8 9