欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品

主頁 > 知識庫 > .NET下文本相似度算法余弦定理和SimHash淺析及應(yīng)用實例分析

.NET下文本相似度算法余弦定理和SimHash淺析及應(yīng)用實例分析

熱門標簽:外呼電銷機器人軟件 t3出行地圖標注怎么做 400電話辦理最優(yōu)質(zhì) 河北網(wǎng)絡(luò)回撥外呼系統(tǒng) 400免費電話怎么辦理 關(guān)于宗地圖標注技術(shù)規(guī)范 威海電銷 寧夏機器人電銷 河南語音外呼系統(tǒng)公司

本文實例講述了.NET下文本相似度算法余弦定理和SimHash淺析及應(yīng)用。分享給大家供大家參考。具體分析如下:

余弦相似性

原理:首先我們先把兩段文本分詞,列出來所有單詞,其次我們計算每個詞語的詞頻,最后把詞語轉(zhuǎn)換為向量,這樣我們就只需要計算兩個向量的相似程度.
 
我們簡單表述如下
 
文本1:我/愛/北京/天安門/ 經(jīng)過分詞求詞頻得出向量(偽向量)  [1,1,1,1]
 
文本2:我們/都愛/北京/天安門/ 經(jīng)過分詞求詞頻得出向量(偽向量)  [1,0,1,2]
 
我們可以把它們想象成空間中的兩條線段,都是從原點([0, 0, ...])出發(fā),指向不同的方向。兩條線段之間形成一個夾角,如果夾角為0度,意味著方向相同、線段重合;如果夾角為90度,意味著形成直角,方向完全不相似;如果夾角為180度,意味著方向正好相反。因此,我們可以通過夾角的大小,來判斷向量的相似程度。夾角越小,就代表越相似。
 
C#核心算法:

復(fù)制代碼 代碼如下:
    public class TFIDFMeasure
    {
        private string[] _docs;
        private string[][] _ngramDoc;
        private int _numDocs=0;
        private int _numTerms=0;
        private ArrayList _terms;
        private int[][] _termFreq;
        private float[][] _termWeight;
        private int[] _maxTermFreq;
        private int[] _docFreq;
 
        public class TermVector
        {       
            public static float ComputeCosineSimilarity(float[] vector1, float[] vector2)
            {
                if (vector1.Length != vector2.Length)               
                    throw new Exception("DIFER LENGTH");
               
 
                float denom=(VectorLength(vector1) * VectorLength(vector2));
                if (denom == 0F)               
                    return 0F;               
                else               
                    return (InnerProduct(vector1, vector2) / denom);
               
            }
 
            public static float InnerProduct(float[] vector1, float[] vector2)
            {
           
                if (vector1.Length != vector2.Length)
                    throw new Exception("DIFFER LENGTH ARE NOT ALLOWED");
               
           
                float result=0F;
                for (int i=0; i vector1.Length; i++)               
                    result += vector1[i] * vector2[i];
               
                return result;
            }
       
            public static float VectorLength(float[] vector)
            {           
                float sum=0.0F;
                for (int i=0; i vector.Length; i++)               
                    sum=sum + (vector[i] * vector[i]);
                       
                return (float)Math.Sqrt(sum);
            }
        }
 
        private IDictionary _wordsIndex=new Hashtable() ;
 
        public TFIDFMeasure(string[] documents)
        {
            _docs=documents;
            _numDocs=documents.Length ;
            MyInit();
        }
 
        private void GeneratNgramText()
        {
           
        }
 
        private ArrayList GenerateTerms(string[] docs)
        {
            ArrayList uniques=new ArrayList() ;
            _ngramDoc=new string[_numDocs][] ;
            for (int i=0; i docs.Length ; i++)
            {
                Tokeniser tokenizer=new Tokeniser() ;
                string[] words=tokenizer.Partition(docs[i]);           
 
                for (int j=0; j words.Length ; j++)
                    if (!uniques.Contains(words[j]) )               
                        uniques.Add(words[j]) ;
            }
            return uniques;
        }

        private static object AddElement(IDictionary collection, object key, object newValue)
        {
            object element=collection[key];
            collection[key]=newValue;
            return element;
        }
 
        private int GetTermIndex(string term)
        {
            object index=_wordsIndex[term];
            if (index == null) return -1;
            return (int) index;
        }
 
        private void MyInit()
        {
            _terms=GenerateTerms (_docs );
            _numTerms=_terms.Count ;
 
            _maxTermFreq=new int[_numDocs] ;
            _docFreq=new int[_numTerms] ;
            _termFreq =new int[_numTerms][] ;
            _termWeight=new float[_numTerms][] ;
 
            for(int i=0; i _terms.Count ; i++)           
            {
                _termWeight[i]=new float[_numDocs] ;
                _termFreq[i]=new int[_numDocs] ;
 
                AddElement(_wordsIndex, _terms[i], i);           
            }
           
            GenerateTermFrequency ();
            GenerateTermWeight();           
        }
       
        private float Log(float num)
        {
            return (float) Math.Log(num) ;//log2
        }
 
        private void GenerateTermFrequency()
        {
            for(int i=0; i _numDocs  ; i++)
            {                               
                string curDoc=_docs[i];
                IDictionary freq=GetWordFrequency(curDoc);
                IDictionaryEnumerator enums=freq.GetEnumerator() ;
                _maxTermFreq[i]=int.MinValue ;
                while (enums.MoveNext())
                {
                    string word=(string)enums.Key;
                    int wordFreq=(int)enums.Value ;
                    int termIndex=GetTermIndex(word);
 
                    _termFreq [termIndex][i]=wordFreq;
                    _docFreq[termIndex] ++;
 
                    if (wordFreq > _maxTermFreq[i]) _maxTermFreq[i]=wordFreq;                   
                }
            }
        }

        private void GenerateTermWeight()
        {           
            for(int i=0; i _numTerms   ; i++)
            {
                for(int j=0; j _numDocs ; j++)               
                    _termWeight[i][j]=ComputeTermWeight (i, j);
            }
        }
 
        private float GetTermFrequency(int term, int doc)
        {           
            int freq=_termFreq [term][doc];
            int maxfreq=_maxTermFreq[doc];           
           
            return ( (float) freq/(float)maxfreq );
        }
 
        private float GetInverseDocumentFrequency(int term)
        {
            int df=_docFreq[term];
            return Log((float) (_numDocs) / (float) df );
        }
 
        private float ComputeTermWeight(int term, int doc)
        {
            float tf=GetTermFrequency (term, doc);
            float idf=GetInverseDocumentFrequency(term);
            return tf * idf;
        }
       
        private  float[] GetTermVector(int doc)
        {
            float[] w=new float[_numTerms] ;
            for (int i=0; i _numTerms; i++)
                w[i]=_termWeight[i][doc];
            return w;
        }
 
        public float GetSimilarity(int doc_i, int doc_j)
        {
            float[] vector1=GetTermVector (doc_i);
            float[] vector2=GetTermVector (doc_j);
            return TermVector.ComputeCosineSimilarity(vector1, vector2);
        }
       
        private IDictionary GetWordFrequency(string input)
        {
            string convertedInput=input.ToLower() ;
            Tokeniser tokenizer=new Tokeniser() ;
            String[] words=tokenizer.Partition(convertedInput);
            Array.Sort(words);
           
            String[] distinctWords=GetDistinctWords(words);
                       
            IDictionary result=new Hashtable();
            for (int i=0; i distinctWords.Length; i++)
            {
                object tmp;
                tmp=CountWords(distinctWords[i], words);
                result[distinctWords[i]]=tmp;
            }
            return result;
        }               
               
        private string[] GetDistinctWords(String[] input)
        {               
            if (input == null)           
                return new string[0];           
            else
            {
                ArrayList list=new ArrayList() ;
               
                for (int i=0; i input.Length; i++)
                    if (!list.Contains(input[i])) // N-GRAM SIMILARITY?
                        list.Add(input[i]);
                return Tokeniser.ArrayListToArray(list) ;
            }
        }

        private int CountWords(string word, string[] words)
        {
            int itemIdx=Array.BinarySearch(words, word);
           
            if (itemIdx > 0)           
                while (itemIdx > 0 words[itemIdx].Equals(word))
                    itemIdx--;               
            int count=0;
            while (itemIdx words.Length itemIdx >= 0)
            {
                if (words[itemIdx].Equals(word)) count++;
                itemIdx++;
                if (itemIdx words.Length)               
                    if (!words[itemIdx].Equals(word)) break;
            }
            return count;
        }               
}


 
缺點:
 
由于有可能一個文章的特征向量詞特別多導(dǎo)致整個向量維度很高,使得計算的代價太大不適合大數(shù)據(jù)量的計算。
 
SimHash原理:
 
算法的主要思想是降維,將高維的特征向量映射成一個f-bit的指紋(fingerprint),通過比較兩篇文章的f-bit指紋的Hamming Distance來確定文章是否重復(fù)或者高度近似。由于每篇文章我們都可以事先計算好Hamming Distance來保存,到時候直接通過Hamming Distance來計算,所以速度非常快適合大數(shù)據(jù)計算。
 
Google就是基于此算法實現(xiàn)網(wǎng)頁文件查重的。我們假設(shè)有以下三段文本:
 
1,the cat sat on the mat
 
2,the cat sat on a mat
 
3,we all scream for ice cream
 
如何實現(xiàn)這種hash算法呢?以上述三個文本為例,整個過程可以分為以下六步:
1、選擇simhash的位數(shù),請綜合考慮存儲成本以及數(shù)據(jù)集的大小,比如說32位
2、將simhash的各位初始化為0
3、提取原始文本中的特征,一般采用各種分詞的方式。比如對于"the cat sat on the mat",采用兩兩分詞的方式得到如下結(jié)果:{"th", "he", "e ", " c", "ca", "at", "t ", " s", "sa", " o", "on", "n ", " t", " m", "ma"}
4、使用傳統(tǒng)的32位hash函數(shù)計算各個word的hashcode,比如:"th".hash = -502157718
,"he".hash = -369049682,……
5、對各word的hashcode的每一位,如果該位為1,則simhash相應(yīng)位的值加1;否則減1
6、對最后得到的32位的simhash,如果該位大于1,則設(shè)為1;否則設(shè)為0

希望本文所述對大家的.net程序設(shè)計有所幫助。

您可能感興趣的文章:
  • VB.NET中使用種子填充算法實現(xiàn)給圖片著色的例子
  • .net C# 實現(xiàn)任意List的笛卡爾乘積算法代碼
  • asp.net 冒泡算法的理解
  • asp.NET 臟字過濾算法 修改版
  • asp.NET 臟字過濾算法
  • asp.net 2個日期之間的整月數(shù)的算法
  • asp.net下常用的加密算法MD5、SHA-1應(yīng)用代碼
  • asp.net TripleDES加密、解密算法
  • 赫赫大名的A*尋路算法(vb.net版本)
  • asp.net(c#)兩種隨機數(shù)的算法,可用抽考題

標簽:淮北 廣元 吉林 固原 樂山 咸寧 賀州 池州

巨人網(wǎng)絡(luò)通訊聲明:本文標題《.NET下文本相似度算法余弦定理和SimHash淺析及應(yīng)用實例分析》,本文關(guān)鍵詞  .NET,下,文本,相似,度,算法,;如發(fā)現(xiàn)本文內(nèi)容存在版權(quán)問題,煩請?zhí)峁┫嚓P(guān)信息告之我們,我們將及時溝通與處理。本站內(nèi)容系統(tǒng)采集于網(wǎng)絡(luò),涉及言論、版權(quán)與本站無關(guān)。
  • 相關(guān)文章
  • 下面列出與本文章《.NET下文本相似度算法余弦定理和SimHash淺析及應(yīng)用實例分析》相關(guān)的同類信息!
  • 本頁收集關(guān)于.NET下文本相似度算法余弦定理和SimHash淺析及應(yīng)用實例分析的相關(guān)信息資訊供網(wǎng)民參考!
  • 推薦文章
    欧美阿v视频在线大全_亚洲欧美中文日韩V在线观看_www性欧美日韩欧美91_亚洲欧美日韩久久精品
  • <rt id="w000q"><acronym id="w000q"></acronym></rt>
  • <abbr id="w000q"></abbr>
    <rt id="w000q"></rt>
    色偷偷一区二区三区| 91啪九色porn原创视频在线观看| 欧美熟妇精品一区二区| 色诱亚洲精品久久久久久| 国产精品少妇自拍| 国产毛片精品视频| brazzers精品成人一区| 91麻豆精品国产91久久久久久 | 日韩区在线观看| 亚洲男人电影天堂| av一区二区不卡| 国产精品久久久精品四季影院| 亚洲国产精品成人久久综合一区| 卡一卡二国产精品| 日本乱子伦xxxx| 久久久久久久免费视频了| 精品一区二区三区影院在线午夜 | 久久国产三级精品| 精品人妻一区二区三区视频| 日韩三级高清在线| 韩国精品主播一区二区在线观看 | 国产成人av网站| 久久一级免费视频| 国产精品久久久久天堂| 成人午夜在线免费| 色婷婷综合久久| 一区二区三区四区蜜桃| 美女黄色一级视频| 日韩一区二区不卡| 久草这里只有精品视频| 萌白酱视频在线| 国产精品人妖ts系列视频| 顶级嫩模精品视频在线看| 黄色a级片在线观看| 亚洲免费在线播放| 国产成人精品一区二区在线小狼| 3atv在线一区二区三区| 日本怡春院一区二区| 天天躁夜夜躁狠狠是什么心态| 国产视频一区二区三区在线观看| 高潮精品一区videoshd| 在线观看区一区二| 日日摸夜夜添夜夜添国产精品| 欧美偷拍一区二区三区| 中文av一区特黄| 国产精品19p| 日韩精品一区二区三区蜜臀| 国产精品一区二区三区乱码| 色婷婷久久99综合精品jk白丝| 亚洲成人一二三| 97超碰在线资源| 国产欧美日韩卡一| 99久久婷婷国产综合精品电影| 欧美久久一二三四区| 久久er精品视频| 91porn在线视频| 午夜一区二区三区视频| 9.1片黄在线观看| 一区二区三区在线观看视频| 成人h动漫精品一区| 欧美激情一区二区在线| 白丝校花扒腿让我c| 精品国产成人系列| 97精品国产97久久久久久久久久久久| 69av一区二区三区| 国产精品99久久久久| 精品视频一区二区不卡| 国产在线精品一区二区夜色| 91久久精品日日躁夜夜躁欧美| 日本色综合中文字幕| 极品色av影院| 日韩不卡一区二区三区| 亚洲熟女毛茸茸| 日韩精品电影在线| 欧美做爰啪啪xxxⅹ性| 香蕉乱码成人久久天堂爱免费| 中国美女黄色一级片| 亚洲大片在线观看| 天海翼在线视频| 青草国产精品久久久久久| 色综合天天综合网天天看片| 精品夜夜澡人妻无码av| 国产精品国产三级国产aⅴ无密码| 日本一级片在线播放| 国产精品久久久久天堂| 99久久人妻无码精品系列| 亚洲最新在线观看| 可以免费看av的网址| 日韩和欧美的一区| 91国偷自产一区二区使用方法| 裸体一区二区三区| 欧美亚洲动漫精品| 成人性生交大合| 久久久激情视频| 偷偷色噜狠狠狠狠的777米奇| 国产精品成人一区二区三区夜夜夜| 日本xxx在线播放| 亚洲国产另类精品专区| 精品无码久久久久成人漫画| 免费成人性网站| 欧美日韩情趣电影| 成人黄色av电影| 久久久久国产一区二区三区四区| 成人黄色av电影| 国产女同互慰高潮91漫画| 无码h肉动漫在线观看| 亚洲一区在线看| 一本久道中文字幕精品亚洲嫩| 国产精品一区二区久久不卡| 精品免费日韩av| 一起草在线视频| 国产美女在线观看一区| xxxx视频在线观看| 亚洲欧洲精品成人久久奇米网| 30一40一50老女人毛片| 性久久久久久久久久久久| 日本精品一区二区三区高清| 国产白丝网站精品污在线入口| 久久久五月婷婷| 免费污网站在线观看| 日产精品久久久久久久性色| 欧美另类久久久品| 在线观看一区二区三区视频| 亚洲精品五月天| 色美美综合视频| 成人黄色一级视频| 国产精品国产三级国产有无不卡| 国产一区第一页| 国产剧情一区二区| 国产日韩欧美综合一区| 国产视频123区| 国产麻豆精品一区二区| 久久精品在这里| 欧美成人短视频| 丰满放荡岳乱妇91ww| 国产精品―色哟哟| 91麻豆免费视频网站| 成人午夜碰碰视频| 自拍偷自拍亚洲精品播放| www欧美com| 91香蕉视频在线| 亚洲一区在线播放| 制服.丝袜.亚洲.中文.综合| 在线天堂www在线国语对白| 天天操天天色综合| 日韩午夜激情视频| a天堂中文字幕| 国产精品99久久久| 日韩一区在线看| 91精品福利在线一区二区三区| 蜜臀va亚洲va欧美va天堂| 日韩欧美一区二区久久婷婷| 在线免费观看麻豆| 国产精品一线二线三线精华| 国产精品国产a级| 色天天综合色天天久久| 欧洲成人午夜精品无码区久久| 日韩精品成人一区二区在线| 欧美精品一区男女天堂| 午夜成人亚洲理伦片在线观看| a级精品国产片在线观看| 亚洲愉拍自拍另类高清精品| 欧美一级日韩一级| 欧美激情 一区| hitomi一区二区三区精品| 亚洲一二三四区| 精品国产一区二区亚洲人成毛片| 国产一区二区三区四区在线| 成人黄色av电影| 天堂在线一区二区| 国产亚洲午夜高清国产拍精品| 中文字幕av播放| 小毛片在线观看| 国产乱码精品一区二区三区忘忧草| 国产精品美女一区二区在线观看| 欧洲国内综合视频| 丰腴饱满的极品熟妇| 国产美女娇喘av呻吟久久| 伊人色综合久久天天| 日韩精品最新网址| 侵犯稚嫩小箩莉h文系列小说| 国产精品熟妇一区二区三区四区| 久久国产生活片100| 亚洲精品自拍动漫在线| 日韩免费视频一区二区| 放荡的美妇在线播放| 国产精品久久AV无码| 国产成人免费视频网站| 亚洲国产精品人人做人人爽| 国产色产综合产在线视频| 欧美综合一区二区| 日本乱子伦xxxx| 午夜性福利视频| 国产成人免费视频网站| 日韩福利视频网| 日韩 中文字幕| 国产不卡免费视频| 日韩av电影天堂| 亚洲欧洲三级电影| 精品人伦一区二区色婷婷|