gpt4 book ai didi

python - 如何反转 python 中的光标移动?

转载 作者:太空狗 更新时间:2023-10-29 17:50:07 28 4
gpt4 key购买 nike

在此代码中,我使用的是 Python 2.7.13、OpenCV 2.4.13 和 PyAutoGUI 0.9.36。目标是根据面部运动移动光标,但光标移动是反向的。例如,如果我的脸向右,光标将向左移动,如果我的脸向左,光标将向右移动。另外,我想让光标在我的电脑的整个屏幕上左右移动,它的大小是x=1920,y=1080。

该计划的目的是表明有可能获得一种新方法来获得更多的独立性和访问权限,以便四肢瘫痪的人能够进行简单的事件,这些事件是数百万人日常事件的一部分,比如开灯关灯,开电视关电视。

import cv2
import pyautogui

faceCascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')

video_capture = cv2.VideoCapture(0)

while True:
# Capture frame-by-frame
ret, frame = video_capture.read()

gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
faces = faceCascade.detectMultiScale(
gray,
scaleFactor=1.3,
minNeighbors=5,
minSize=(80, 80),
flags=cv2.cv.CV_HAAR_SCALE_IMAGE
)

#print 'faces: ', faces

# Draw a rectangle around the faces
for (x, y, w, h) in faces:
cv2.rectangle(frame, (x, y), (x+w, y+h), (0, 0, 255), 3)

#width, height = pyautogui.size()
#cursorx, cursory = pyautogui.position()
#posx = width - cursorx
#posy = cursory
pyautogui.moveTo(x+w, y+h)

# Display the resulting frame
#cv2.imshow('Video', frame)
rimg = cv2.flip(frame,1) #invert the object frame
cv2.imshow("vertical flip", rimg)

if cv2.waitKey(1) & 0xFF == ord('q'):
break
# When everything is done, release the capture
video_capture.release()
cv2.destroyAllWindows()

最佳答案

你做的很好。

要仅修复鼠标移动,您可以从屏幕尺寸中减去 x,y 移动。但是然后将它跨越到整个屏幕pyautogui.moveTo(x,y) 会非常不准确且嘈杂。为了更顺畅,您可以使用

pyautogui.moveRel(None, steps)

话虽如此,如果您首先使用面部级联,则很难为相应的鼠标运动移动面部。我会说,使用像向左或向右倾斜这样的面部方向会更好。

在下面的代码中,我将眼级联用于左右运动。因此,稍微倾斜脸部就足以进行运动。我在 OpenCV 3.2 上工作,因此如果需要,请根据您的版本进行必要的更改。

代码

import numpy as np
import cv2
import pyautogui

right = cv2.CascadeClassifier('haarcascade_righteye_2splits.xml')
left = cv2.CascadeClassifier('haarcascade_lefteye_2splits.xml')
smile = cv2.CascadeClassifier('haarcascade_smile.xml')

cam=cv2.VideoCapture(0)

blank=np.zeros((480,848,3),dtype=np.uint8) # Change this correctly to size of your image frame
fix=0

print "press y to set reference box for y motion" #set a reference initially for y motion

while(cam.isOpened()):


ret,img = cam.read()
r=0
l=0
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
r_eye= right.detectMultiScale(gray, 1.9, 9)
l_eye= left.detectMultiScale(gray, 1.9, 9) #Change these values according to face distance from screen

for (rx,ry,rw,rh) in r_eye:
cv2.rectangle(img,(rx,ry),(rx+rw,ry+rh),(255,255,0),2)
r_c=(rx+rw/2,ry+rh/2)
r=1

for (lx,ly,lw,lh) in l_eye:
cv2.rectangle(img,(lx,ly),(lx+lw,ly+lh),(0,255,255),2)
l_c=(lx+lw/2,ly+lh/2)
l=1

if(r*l):

if(l_c[0]-r_c[0]>50):
cv2.line(img,r_c,l_c,(0,0,255),4)
mid=((r_c[0]+l_c[0])/2,(r_c[1]+l_c[1])/2)
cv2.circle(img,mid,2,(85,25,100),2)
if(fix==1): # Change this part of code according to what you want
# for motion along y direction
if( mid[1]<one[1]):
pyautogui.moveRel(None, -15)
if(mid[1]>two[1]):
pyautogui.moveRel(None, 15)

if(cv2.waitKey(1))== ord('y'):
blank=np.zeros_like(img)
one=(mid[0]-60,r_c[1]-7) # Change the Value 60,7 to change box dimentions
two=(mid[0]+60,l_c[1]+7) # Change the Value 60,7 to change box dimentions
cv2.rectangle(blank,one,two,(50,95,100),2)
fix=1


elif(r) : pyautogui.moveRel(-30, None) # Change the Value and Sign to change speed and direction

elif (l): pyautogui.moveRel(30, None) # Change the Value and Sign to change speed and direction



img=cv2.bitwise_or(img,blank)
cv2.imshow('img',img)
if(cv2.waitKey(1))==27:break

cv2.destroyAllWindows()

在代码中,需要按y键设置一个框供y轴运动引用。开箱即用,双眼即动。

我们可以为鼠标点击添加一个微笑级联,但目前这不太准确且速度较慢。需要找出更好的选择,例如点击眼睛或其他东西。
这是使事情正常进行的非常基本的代码。在神经网络中标记面部表情可能会好得多,但速度也是一个因素。

关于python - 如何反转 python 中的光标移动?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/45766764/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com