人本善良

导航

Luncence .Net 使用

    public partial class Form1 : Form
    {
        public Form1()
        {
            InitializeComponent();
        }
          //标准分词
        private void button1_Click(object sender, EventArgs e)
        {

            Analyzer analyzer = new StandardAnalyzer();
            TokenStream tokenStream = analyzer.TokenStream("", new StringReader("i love you 小谢同学是我的老婆!"));
            Lucene.Net.Analysis.Token token = null;
            while ((token=tokenStream.Next())!=null)
            {
                Console.WriteLine(token.TermText());
            }

        }
        //单个分词
        private void button2_Click(object sender, EventArgs e)
        {
            Analyzer analyzer =new  CJKAnalyzer();
            TokenStream tokenStream = analyzer.TokenStream("", new StringReader("我爱你"));
            Lucene.Net.Analysis.Token token=new Lucene.Net.Analysis.Token();
            while ((token=tokenStream.Next())!=null)
            {
                Console.WriteLine(token.TermText());
            }
        }
           //盘库分词
        private void button3_Click(object sender, EventArgs e)
        {
            Analyzer analyzer=new PanGuAnalyzer();
            TokenStream tokenStream = analyzer.TokenStream("", new StringReader("小谢是我的老婆!千真万确"));
            Lucene.Net.Analysis.Token token=new Lucene.Net.Analysis.Token();
            while ((token=tokenStream.Next())!=null)
            {
                Console.WriteLine(token.TermText());                
            }
        }

        private void button4_Click(object sender, EventArgs e)
        {
           

        }
        /// <summary>
        /// 搜索内容
        /// </summary>
        /// <param name="sender"></param>
        /// <param name="e"></param>
        private void button5_Click(object sender, EventArgs e)
        {
           

        }

        private void button4_Click_1(object sender, EventArgs e)
        {
            string indexPath = @"C:\lucenedir";//注意和磁盘上文件夹的大小写一致,否则会报错。将创建的分词内容放在该目录下。
            FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NativeFSLockFactory());//指定索引文件(打开索引目录) FS指的是就是FileSystem
            bool isUpdate = IndexReader.IndexExists(directory);//IndexReader:对索引进行读取的类。该语句的作用:判断索引库文件夹是否存在以及索引特征文件是否存在。
            if (isUpdate)
            {
                //同时只能有一段代码对索引库进行写操作。当使用IndexWriter打开directory时会自动对索引库文件上锁。
                //如果索引目录被锁定(比如索引过程中程序异常退出),则首先解锁(提示一下:如果我现在正在写着已经加锁了,但是还没有写完,这时候又来一个请求,那么不就解锁了吗?这个问题后面会解决)
                if (IndexWriter.IsLocked(directory))
                {
                    IndexWriter.Unlock(directory);
                }
            }
            IndexWriter writer = new IndexWriter(directory, new PanGuAnalyzer(), !isUpdate, Lucene.Net.Index.IndexWriter.MaxFieldLength.UNLIMITED);//向索引库中写索引。这时在这里加锁。
            for (int i = 1; i <= 1; i++)
            {
                string txt = File.ReadAllText(@"D:\lucencetest.txt", System.Text.Encoding.Default);//注意这个地方的编码
                writer.DeleteDocuments(new Term("number", ""));//删除文档
                Document document = new Document();//表示一篇文档。
                //Field.Store.YES:表示是否存储原值。只有当Field.Store.YES在后面才能用doc.Get("number")取出值来.Field.Index. NOT_ANALYZED:不进行分词保存
                document.Add(new Field("number", "", Field.Store.YES, Field.Index.NOT_ANALYZED));

                //Field.Index. ANALYZED:进行分词保存:也就是要进行全文的字段要设置分词 保存(因为要进行模糊查询)

                //Lucene.Net.Documents.Field.TermVector.WITH_POSITIONS_OFFSETS:不仅保存分词还保存分词的距离。
                document.Add(new Field("body", txt, Field.Store.YES, Field.Index.ANALYZED, Lucene.Net.Documents.Field.TermVector.WITH_POSITIONS_OFFSETS));
                writer.AddDocument(document);

            }
            writer.Close();//会自动解锁。
            directory.Close();//不要忘了Close,否则索引结果搜不到

        }

        private void button5_Click_1(object sender, EventArgs e)
        {
            string indexPath = @"C:\lucenedir";
            string kw = "";
            FSDirectory directory = FSDirectory.Open(new DirectoryInfo(indexPath), new NoLockFactory());
            IndexReader reader = IndexReader.Open(directory, true);
            IndexSearcher searcher = new IndexSearcher(reader);
            //搜索条件
            //PhraseQuery query = new PhraseQuery();
            //foreach (string word in kw.Split(' '))//先用空格,让用户去分词,空格分隔的就是词“计算机   专业”
            //{
            //    query.Add(new Term("body", word));
            //}
            //query.Add(new Term("body","语言"));--可以添加查询条件,两者是add关系.顺序没有关系.
            //  query.Add(new Term("body", "大学生"));
           // query.Add(new Term("body", kw));//body中含有kw的文章
           // query.Add(new Term("number",kw) );
           // query.SetSlop(100);//多个查询条件的词之间的最大距离.在文章中相隔太远 也就无意义.(例如 “大学生”这个查询条件和"简历"这个查询条件之间如果间隔的词太多也就没有意义了。)
            //TopScoreDocCollector是盛放查询结果的容器
            string[] queries =
            {
                kw,kw
            };
            string []fields = {"number","body"};
            Query query = MultiFieldQueryParser.Parse(queries, fields, new PanGuAnalyzer()); //创建检索

            TopScoreDocCollector collector = TopScoreDocCollector.create(1000, true);
            searcher.Search(query, null, collector);//根据query查询条件进行查询,查询结果放入collector容器
            ScoreDoc[] docs = collector.TopDocs(0, collector.GetTotalHits()).scoreDocs;//得到所有查询结果中的文档,GetTotalHits():表示总条数   TopDocs(300, 20);//表示得到300(从300开始),到320(结束)的文档内容.
            //可以用来实现分页功能
            this.listBox1.Items.Clear();
            for (int i = 0; i < docs.Length; i++)
            {
                //
                //搜索ScoreDoc[]只能获得文档的id,这样不会把查询结果的Document一次性加载到内存中。降低了内存压力,需要获得文档的详细内容的时候通过searcher.Doc来根据文档id来获得文档的详细内容对象Document.
                int docId = docs[i].doc;//得到查询结果文档的id(Lucene内部分配的id)
                Document doc = searcher.Doc(docId);//找到文档id对应的文档详细信息
                this.listBox1.Items.Add(doc.Get("number") + "\n");// 取出放进字段的值
                this.listBox1.Items.Add(doc.Get("body") + "\n");
                this.listBox1.Items.Add("-----------------------\n");
            }

        }
    }
}

 

posted on 2016-07-18 14:06  简简单单2018  阅读(837)  评论(0编辑  收藏  举报