- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个相当长的脚本,它使用 CNN 将无人机镜头中的人分类为人类或非人类。一般流程如下: (1) 创建一个视频对象并根据指定的秒间隔从中提取“捕获”。 (2) 实例化 Model 类,加载一个 PyTorch CNN。 (3) 对于每次捕获,分解成更小(和重叠)的图像,CNN 将这些图像分类为人类或非人类。 (4) 创建一个坐标列表,满足上一步。 (5) 在坐标周围画出红色方 block ,并保存标记好的图像。 (6) 对每次捕获重复该过程。
图像级别存在瓶颈。 CNN 依次生产和评估裁剪。我很想并行化这个过程,但它超出了我目前的知识/经验水平。
有什么建议吗?脚本如下供引用。
import torch, torchvision
from torchvision import datasets, models, transforms
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader
import time
from torchsummary import summary
import numpy as np
import matplotlib.pyplot as plt
import os
from PIL import Image
import shutil
from PIL import Image, ImageDraw
import random
import cv2
class Model():
def __init__(self,model):
self.idx_to_class = {1:'No human',0:'Human'}
self.image_transforms = {
'test': transforms.Compose([
transforms.Resize(size=256),
transforms.CenterCrop(size=224),
transforms.ToTensor(),
transforms.Normalize([0.485, 0.456, 0.406],
[0.229, 0.224, 0.225])
])
}
self.model = torch.load(model)
def predict(self, test_image_name):
transform = self.image_transforms['test']
# test_image = Image.open(test_image_name)
test_image_tensor = transform(test_image_name)
if torch.cuda.is_available():
test_image_tensor = test_image_tensor.view(1, 3, 224, 224).cuda()
else:
test_image_tensor = test_image_tensor.view(1, 3, 224, 224)
with torch.no_grad():
self.model.eval()
out = self.model(test_image_tensor)
ps = torch.exp(out)
topk, topclass = ps.topk(1, dim=1)
return topclass.cpu().numpy()[0][0]
class Image_classifier():
def __init__(self,image,folder,positive_location,model):
self.name = image
self.alias = image.split('.')[0]
self.folder = folder
self.src = Image.open(f"{self.folder}/{self.name}")
self.width = self.src.size[0]
self.square_size = int(self.width/25)
self.max_down = int(self.src.height/self.square_size) * self.square_size - self.square_size
self.max_right = int(self.src.width/self.square_size) * self.square_size - self.square_size
self.offset = int(self.square_size/3)
self.positive_location = positive_location
self.model = model
def window_coordinates(self):
def right_pass(y):
x_coords = [x for x in range(0,self.max_right,self.offset)]
y_coords = [y for x in range(0,self.max_right,self.offset)]
return [(x,y,x+self.square_size,y+self.square_size) for x,y in zip(x_coords,y_coords)]
#v_pass = np.vectorize(right_pass)
y_values = [y for y in range(0,self.max_down,self.offset)]
coordinates = [right_pass(y) for y in y_values]
self.coordinates = [item for sublist in coordinates for item in sublist]
def predict_coord(self,coord):
sample = self.src.crop(coord)
return self.model.predict(sample)
def parse_coordinates(self):
new_coords = [coord if self.predict_coord(coord) == 0 else 0 for coord in self.coordinates]
while 0 in new_coords:
new_coords.remove(0)
self.coordinates = new_coords
def select_squares(self):
self.window_coordinates()
self.parse_coordinates()
self.drawable = ImageDraw.Draw(self.src)
for coord in self.coordinates:
self.drawable.rectangle(list(coord), fill = None, outline = 'red')
self.src.save(f"{self.positive_location}/{self.alias}.jpg")
class Video_classifier():
def __init__(self,video,root,seconds):
self.video = video
self.alias = self.video.split('.')[0]
self.root = root
self.seconds = seconds
self.model = Model(model='/home/team4/output/_model_142.pt')
self.folder = f"{self.root}/{self.alias}"
if os.path.exists(self.folder):
shutil.rmtree(self.folder)
os.mkdir(self.folder)
self.positive_location = f"{self.root}/{self.alias}/positives"
if os.path.exists(self.positive_location):
shutil.rmtree(self.positive_location)
os.mkdir(self.positive_location)
def get_frames(self):
import cv2
cam = cv2.VideoCapture(f"{self.root}/{self.video}")
(major_ver, minor_ver, subminor_ver) = (cv2.__version__).split('.')
if int(major_ver) < 3 :
fps = round(video.get(cv2.cv.CV_CAP_PROP_FPS))
else:
fps = round(cam.get(cv2.CAP_PROP_FPS))
current_frame = 0
while(True):
ret,frame = cam.read()
if ret:
if current_frame % (self.seconds*fps) == 0:
f_name = f"{self.alias}_{current_frame}.jpg"
cv2.imwrite(f_name, frame)
shutil.move(f_name, self.folder)
current_frame += 1
else:
break
cam.release()
cv2.destroyAllWindows()
def read_dir(self):
self.files = [f for f in os.listdir(self.folder) if os.path.isfile(os.path.join(self.folder, f))]
def classify_frames(self):
self.get_frames()
self.read_dir()
for file in self.files:
image = Image_classifier(image=file, folder=self.folder, positive_location=self.positive_location,
model=self.model)
image.select_squares()
test = Video_classifier(video='refugee_test.mp4',root='/home/team4/Untitled Folder 1', seconds=10)
test.classify_frames()
最佳答案
所以你会想学习如何使用库多处理。毫无疑问,有很多方法可以解决这个问题,因为该库非常广泛。假设您需要跟踪不同的过程以正确地将图像重新组合在一起,我将采取以下方法。这比仅仅创建一个进程池更复杂,但允许您跟踪所有进程。
from multiprocessing import Process, Pipe
#keeps track of connections
conList = []
for i in range(numberOfProcessesNeeded):
#creates connection
recv, send = Pipe()
#gets process ready with function to complete and arguments
pid = Process(target=imageProcessingFunction, args=(i,command,send))
#starts process
pid.start()
#keeps track of process
conList.append([i,recv])
data = []
for i in conList:
#this will wait until each process has finished and then collect the data
out = i[1].recv()
data.append(out)
关于python - 如何使用 PyTorch 并行化 CNN 对图像的评估,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58959799/
我是 python 的新手。我试图找到我的文本的频率分布。这是代码, import nltk nltk.download() import os os.getcwd() text_file=open(
我对安卓 fragment 感到困惑。我知道内存 fragment 但无法理解什么是 android fragment 问题。虽然我发现很多定义,比如 Android fragmentation re
尝试对 WordPress 进行 dockerise 我发现了这个场景: 2个数据卷容器,一个用于数据库(bbdd),另一个用于wordpress文件(wordpress): sudo docker
这个问题已经有答案了: From the server is there a way to know that my page is being loaded in an Iframe (1 个回答)
我正在玩小型服务器,试图对运行在其上的服务进行docker化。为简化起见,假设我必须主要处理:Wordpress和另一项服务。 在Docker集线器上有许多用于Wordpress的图像,但是它们似乎都
我想要发生的是,当帐户成功创建后,提交的表单应该消失,并且应该出现一条消息(取决于注册的状态)。 如果成功,他们应该会看到一个简单的“谢谢。请检查您的电子邮件。” 如果不是,那么他们应该会看到一条适当
就是这样,我需要为客户添加一个唯一标识符。通过 strip 元数据。这就是我现在完全构建它的方式,但是我只有最后一部分告诉我用户购买了哪个包。 我试着看这里: Plans to stripe 代码在这
我有一个类将执行一些复杂的操作,涉及像这样的一些计算: public class ComplexAction { public void someAction(String parameter
这个问题已经有答案了: maven add a local classes directory to module's classpath (1 个回答) 已关闭10 年前。 我有一些不应更改的旧 E
我使用 fragment 已经有一段时间了,但我经常遇到一个让我烦恼的问题。 fragment 有时会相互吸引。现在,我设法为此隔离了一个用例,它是这样的: Add fragment A(也使用 ad
我的 html 中有一个 ol 列表,上面有行条纹。看起来行条纹是从数字后面开始的。有没有办法让行条纹从数字开始? 我已经包含了正在发生的事情的片段 h4:nth-child(even) {
如何仅使用 css 将附加图像 html 化? 如果用纯 css 做不到,那我怎么能至少用一个图像来做 最佳答案 这不是真正的问题,而是您希望我们为您编写代码。我建议您搜索“css breadcrum
以下是 Joshua 的 Effective Java 的摘录: If you do synchronize your class internally, you can use various te
在这里工作时,我们有一个框向业务合作伙伴提供 XML 提要。对我们的提要的请求是通过指定查询字符串参数和值来定制的。其中一些参数是必需的,但很多不是。 例如,我们要求所有请求都指定一个 GUID 来标
我有 3 个缓冲区,其中包含在 32 位处理器上运行的 R、G、B 位数据。 我需要按以下方式组合三个字节: R[0] = 0b r1r2r3r4r5r6r7r8 G[0] = 0b g1g2g3g4
我最近发现了关于如何使用 History.js、jQuery 和 ScrollTo 通过 HTML5 History API 对网站进行 Ajax 化的要点:https://github.com/br
我们有一个 Spring Boot 应用程序,由于集成需要,它变得越来越复杂——比如在你这样做之后发送一封电子邮件,或者在你之后广播一条 jms 消息等等。在寻找一些更高级别的抽象时,我遇到了 apa
我正在尝试首次实施Google Pay。我面临如何指定gateway和gatewayMarchantId的挑战。 我所拥有的是google console帐户,不知道在哪里可以找到此信息。 priva
昨天下午 3 点左右,我为两个想要从一个 Azure 帐户转移到另一个帐户的网站设置了 awverify 记录。到当天结束时,Azure 仍然不允许我添加域,所以我赌了一把,将域和 www 子域重新指
我正在使用terms facet在elasticsearch服务器中获取顶级terms。现在,我的标签"indian-government"不被视为一个标签。将其视为"indian" "governm
我是一名优秀的程序员,十分优秀!