- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在构建一个文本解析器来识别包含文本的犯罪类型。我的类(class)是为了加载 2 个 csv 文件的文本(一个用于训练的文件和一个用于测试的文件)而构建的。我的类(class)中的方法的构建方式是为了在文本中进行快速处理、删除停用词、提取特征向量等等。请按照下面的代码操作。
import re
import codecs
import csv
import nltk
import sklearn
from sklearn import cross_validation
import pandas as pd
# variaveis
tweets = []
caracteristicas = []
testBase = []
testset = []
# Tweet pre-processing
def preProcessamentoText(tweet):
# converte para minusculas
tweet = tweet.lower()
# remove URLs (www.* ou https?://*)
tweet = re.sub('((www\.[^\s]+)|(https?://[^\s]+))','URL',tweet)
# remove @username
tweet = re.sub('@[^\s]+','AT_USER',tweet)
# remove multiplos espacos em brancos
tweet = re.sub('[\s]+', ' ', tweet)
# substitui #work por work
tweet = re.sub(r'#([^\s]+)', r'\1', tweet)
# trim
tweet = tweet.strip('\'"')
return tweet
#end
# list of stopWords
def getStopWords(stopWordListFileName):
stopWords = []
stopWords = nltk.corpus.stopwords.words('portuguese')
stopWords.append('AT_USER')
stopWords.append('URL')
fp = codecs.open(stopWordListFileName, encoding='utf-8')
line = fp.readline()
while line:
word = line.strip()
stopWords.append(word)
line = fp.readline()
fp.close()
return stopWords
#end
# Remove repeat letters. Ex.: leeeeento = lento
def removeRepeticao(s):
pattern = re.compile(r"(.)\1{1,}", re.DOTALL)
return pattern.sub(r"\1\1", s)
#end
# Feature vector
def getVetorCaracteristicas(tweet):
featureVector = []
stopWords = getStopWords('data/stopwords_pt-BR.txt')
words = tweet.split()
for w in words:
# remove letras repetidas
w = removeRepeticao(w)
# remove sinais de pontuacao
w = w.strip('\'"?,.')
# verifica se a palavra inicia com numero
val = re.search(r"^[a-zA-Z][a-zA-Z0-9]*$", w)
# não adiciona se a palavra já existe na lista
# ou se a palavra começa com número
# ou tem tamanha menos que 2
if(w in stopWords or val is None or len(w) <= 2):
continue
else:
featureVector.append(w.lower())
return featureVector
#end
#load trainset
def carregarTextos():
global caracteristicas
inpTexts = csv.reader(open('data/baseTreino.csv', 'rb'), delimiter=',', quotechar='|')
for row in inpTexts:
#print row
sentimento = row[0]
tweet = row[1]
textoProcessado = preProcessamentoText(tweet)
vetorCaracteristicas = getVetorCaracteristicas(textoProcessado)
caracteristicas.extend(vetorCaracteristicas)
tweets.append((vetorCaracteristicas,sentimento))
#print tweets
#end loop
# remove entradas duplicadas
caracteristicas = list(set(caracteristicas))
#load testSet
def test_set():
global testBase
#Lendo o conjunto de testes
testTexts = csv.reader(open('data/baseTestes.csv', 'rb'), delimiter=',', quotechar='|')
for row in testTexts:
#print row
sentimento = row[0]
tweet = row[1]
textoProcessado = preProcessamentoText(tweet)
vetorCaracteristicas = getVetorCaracteristicas(textoProcessado)
testBase.extend(vetorCaracteristicas)
testset.append((vetorCaracteristicas,sentimento))
#print testset
testBase = list(set(testBase))
#Extraction of characteristics
def extracaoCaracteristicas(tweet):
#print tweet
palavras = set(tweet)
lista = {}
for palavra in caracteristicas:
lista['contains(%s)' % palavra] = (palavra in palavras)
#end loop
return lista
#Method to classify the text according to the feeling
def classificaTexto(tweet):
textoProcessado = preProcessamentoText(tweet)
result = NBClassifier.classify(extracaoCaracteristicas(getVetorCaracteristicas(textoProcessado)))
#print result
if (result == 4) :
print 'Crime não categorizado - ' + tweet
elif (result == 1):
print 'Roubo - ' + tweet
elif(result == 2):
print 'Homicídio - ' + tweet
elif(result== 3):
print 'Tráfico - ' + tweet
else :
print 'Não representa um crime - ' + tweet
# Main function
if __name__ == '__main__':
#load the 2 set (train and test)
carregarTextos()
test_set()
# Extract the feature vector of all tweets in one go
conjuntoTreino = nltk.classify.util.apply_features(extracaoCaracteristicas, tweets)
conjuntoTeste = nltk.classify.util.apply_features(extracaoCaracteristicas,testset)
# Train the classifier
#NBClassifier = nltk.NaiveBayesClassifier.train(conjuntoTreino)
#print 'accuracy:', (nltk.classify.util.accuracy(NBClassifier, conjuntoTeste))
#CrossValidation - Using ScikitLearn and NLTK
cv = cross_validation.KFold(len(conjuntoTreino), n_folds=10, shuffle=False, random_state=None)
for traincv, testcv in cv:
classifier = nltk.NaiveBayesClassifier.train(conjuntoTreino[traincv[0]:traincv[len(traincv)-1]])
print 'accuracy:', nltk.classify.util.accuracy(classifier, conjuntoTreino[testcv[0]:testcv[len(testcv)-1]])
在 Main 上,我使用普通的朴素贝叶斯并查看其准确性,然后使用交叉验证的朴素贝叶斯并查看其准确性。现在我想测试已经在包含测试文本的 CSV 上训练过的朴素贝叶斯。如果有的话,请在测试基础上测试排序。
我的方法def classificaTexto(tweet):
。只是为了完成这项工作,但我什至无法将它与已经训练过的分类器一起使用。如果我创建一个文本为
texto1 = 'Enviado por um seguidor: Carro roubado no conjunto Augusto Franco'
classificaTexto(texto1)
该方法将完成其工作并进行排序。
附加信息:我的csv就是这样形成的。一个例子:其中文本前面的数字代表犯罪小组。这样做是为了可以使用该方法 def classificaTexto(tweet):
|1|,|Enviado por um seguidor :Exclusivo.Bom dia.2 caras vestidos de palhaços ontem a noite roubaram as armas dos guardas municipais que faziam a segurança do posto médico aqui no bairro Coroa do Meio!! Polícia nas ruas a procura dos marginais !!! Surreal isso...|,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,
|2|,|Enviado por um seguidor :Segundo informações acaba de acontecer um homicídio na cidade de Malhador no povoado Boqueval \,vítima de pré nome Ronaldo.|,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,,
最佳答案
您只需从调用 train()
的同一对象中调用 classify()
方法即可。一种方法是将对象作为方法的参数传递:
#Method to classify the text according to the feeling
def classificaTexto(nbc, tweet):
textoProcessado = preProcessamentoText(tweet)
result = nbc.classify(extracaoCaracteristicas(getVetorCaracteristicas(textoProcessado)))
#print result
if (result == 4) :
print 'Crime não categorizado - ' + tweet
elif (result == 1):
print 'Roubo - ' + tweet
elif(result == 2):
print 'Homicídio - ' + tweet
elif(result== 3):
print 'Tráfico - ' + tweet
else :
print 'Não representa um crime - ' + tweet
那么你应该可以像这样使用它:
# Main function
if __name__ == '__main__':
#load the 2 set (train and test)
carregarTextos()
test_set()
# Extract the feature vector of all tweets in one go
conjuntoTreino = nltk.classify.util.apply_features(extracaoCaracteristicas, tweets)
# Train the classifier
NBClassifier = nltk.NaiveBayesClassifier.train(conjuntoTreino)
# Classify tweet
texto1 = 'Enviado por um seguidor: Carro roubado no conjunto Augusto Franco'
classificaTexto(NBClassifier, texto1)
更新
如果您想对nltk.classify.util.apply_features()
的输出进行分类,您可以稍微修改classificaTexto()
:
def classificaTexto(nbc, data):
for features in data:
result = nbc.classify(features)
#print result
if (result == 4) :
print 'Crime não categorizado - ' + tweet
elif (result == 1):
print 'Roubo - ' + tweet
elif(result == 2):
print 'Homicídio - ' + tweet
elif(result== 3):
print 'Tráfico - ' + tweet
else :
print 'Não representa um crime - ' + tweet
并像这样使用它:
# Main function
if __name__ == '__main__':
#load the 2 set (train and test)
carregarTextos()
test_set()
# Extract the feature vector of all tweets in one go
conjuntoTreino = nltk.classify.util.apply_features(extracaoCaracteristicas, tweets)
conjuntoTeste = nltk.classify.util.apply_features(extracaoCaracteristicas,testset)
# Train the classifier
NBClassifier = nltk.NaiveBayesClassifier.train(conjuntoTreino)
# Classify testset
classificaTexto(NBClassifier, conjuntoTeste)
you can also use
results = nbc.classify_many(data)
if you wish to immediately store the results in alist
关于Python 2.x - 如何通过trainSet和testSet获取NLTK朴素贝叶斯分类的结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43325174/
我需要您在以下方面提供帮助。近一个月来,我一直在阅读有关任务和异步的内容。 我想尝试在一个简单的 wep api 项目中实现我新获得的知识。我有以下方法,并且它们都按预期工作: public Htt
我的可执行 jar 中有一个模板文件 (.xls)。不需要在运行时我需要为这个文件创建 100 多个副本(稍后将唯一地附加)。用于获取 jar 文件中的资源 (template.xls)。我正在使用
我在查看网站的模型代码时对原型(prototype)有疑问。我知道这对 Javascript 中的继承很有用。 在这个例子中... define([], function () { "use
影响我性能的前三项操作是: 获取滚动条 获取偏移高度 Ext.getStyle 为了解释我的应用程序中发生了什么:我有一个网格,其中有一列在每个单元格中呈现网格。当我几乎对网格的内容做任何事情时,它运
我正在使用以下函数来获取 URL 参数。 function gup(name, url) { name = name.replace(/[\[]/, '\\\[').replace(/[\]]/,
我最近一直在使用 sysctl 来做很多事情,现在我使用 HW_MACHINE_ARCH 变量。我正在使用以下代码。请注意,当我尝试获取其他变量 HW_MACHINE 时,此代码可以完美运行。我还认为
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 关闭 9 年前。 要求提供代码的问题必须表现出对所解决问题的最低限度的理解。包括尝试过的解决方案、为什么
由于使用 main-bower-files 作为使用 Gulp 的编译任务的一部分,我无法使用 node_modules 中的 webpack 来require 模块code> dir 因为我会弄乱当
关闭。这个问题需要更多focused .它目前不接受答案。 想改进这个问题吗? 更新问题,使其只关注一个问题 editing this post . 关闭 5 年前。 Improve this qu
我使用 Gridlayout 在一行中放置 4 个元素。首先,我有一个 JPanel,一切正常。对于行数变大并且我必须能够向下滚动的情况,我对其进行了一些更改。现在我的 JPanel 上添加了一个 J
由于以下原因,我想将 VolumeId 的值保存在变量中: #!/usr/bin/env python import boto3 import json import argparse import
我正在将 MSAL 版本 1.x 更新为 MSAL-browser 的 Angular 。所以我正在尝试从版本 1.x 迁移到 2.X.I 能够成功替换代码并且工作正常。但是我遇到了 acquireT
我知道有很多关于此的问题,例如 Getting daily averages with pandas和 How get monthly mean in pandas using groupby但我遇到
This is the query string that I am receiving in URL. Output url: /demo/analysis/test?startDate=Sat+
我正在尝试使用 javascript 中的以下代码访问 Geoserver 层 var gkvrtWmsSource =new ol.source.ImageWMS({ u
API 需要一个包含授权代码的 header 。这就是我到目前为止所拥有的: var fullUrl = 'https://api.ecobee.com/1/thermostat?json=\{"s
如何获取文件中的最后一个字符,如果是某个字符,则删除它而不将整个文件加载到内存中? 这就是我目前所拥有的。 using (var fileStream = new FileStream("file.t
我是这个社区的新手,想出了我的第一个问题。 我正在使用 JSP,我成功地创建了 JSP-Sites,它正在使用jsp:setParameter 和 jsp:getParameter 具有单个字符串。
在回答 StoreStore reordering happens when compiling C++ for x86 @Peter Cordes 写过 For Acquire/Release se
我有一个函数,我们将其命名为 X1,它返回变量 Y。该函数在操作 .on("focusout", X1) 中使用。如何获取变量Y?执行.on后X1的结果? 最佳答案 您可以更改 Y 的范围以使其位于函
我是一名优秀的程序员,十分优秀!