91欧美超碰AV自拍|国产成年人性爱视频免费看|亚洲 日韩 欧美一厂二区入|人人看人人爽人人操aV|丝袜美腿视频一区二区在线看|人人操人人爽人人爱|婷婷五月天超碰|97色色欧美亚州A√|另类A√无码精品一级av|欧美特级日韩特级

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何手勢(shì)控制鼠標(biāo)

454398 ? 來源:wv ? 2019-08-30 11:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

步驟1:安裝Anaconda和需要的軟件包

Anaconda本質(zhì)上是一個(gè)包裝精美的Python IDE,隨附了大量有用的軟件包,如NumPy,Pandas,IPython筆記本等似乎在科學(xué)界的各個(gè)地方都值得推薦。查看Anaconda以安裝它。

所需的軟件包:

PyAutoGUI

OpenCv

安裝上述軟件包:

OpenCV:

點(diǎn)擊此鏈接逐步安裝for opencv

PyAutoGUI:

PyAutoGUI是一個(gè)Python模塊,用于以編程方式控制鼠標(biāo)和鍵盤。

PyAutoGUI可以從 pip 工具中安裝

打開你的anaconda命令提示并粘貼它:

pip install PyAutoGUI

現(xiàn)在我們準(zhǔn)備好了代碼。..。..

第2步:技術(shù)概述

它本質(zhì)上是一個(gè)程序,它應(yīng)用圖像處理,檢索必要的數(shù)據(jù),并根據(jù)預(yù)定義的概念將其實(shí)現(xiàn)到計(jì)算機(jī)的鼠標(biāo)接口。

代碼是用Python編寫的。它使用跨平臺(tái)圖像處理模塊OpenCV,并使用Python特定庫PyAutoGUI實(shí)現(xiàn)鼠標(biāo)操作。

處理網(wǎng)絡(luò)攝像頭的視頻捕獲,僅提取三個(gè)彩色指尖。他們的中心是用矩量法計(jì)算的,根據(jù)它們的相對(duì)位置決定要執(zhí)行什么動(dòng)作。

第3步:視頻入門

目標(biāo)一:

cv2.VideoCapture()

從中捕獲視頻相機(jī)

通常,我們必須使用相機(jī)捕捉直播。 OpenCV為此提供了一個(gè)非常簡(jiǎn)單的接口。讓我們從相機(jī)中捕捉視頻(我正在使用筆記本電腦的內(nèi)置網(wǎng)絡(luò)攝像頭),將其轉(zhuǎn)換為灰度視頻并顯示它。入門只是一項(xiàng)簡(jiǎn)單的任務(wù)。要捕獲視頻,您需要?jiǎng)?chuàng)建一個(gè)VideoCapture對(duì)象。它的參數(shù)可以是設(shè)備索引或視頻文件的名稱。設(shè)備索引只是指定哪個(gè)攝像頭的數(shù)量。通常會(huì)連接一臺(tái)攝像機(jī)(如我的情況)。所以我只傳遞0(或-1)。您可以通過傳遞1來選擇第二個(gè)攝像頭,依此類推。之后,您可以逐幀捕獲。但最后,不要忘記發(fā)布捕獲。

我們要做的第一件事就是將捕獲的視頻轉(zhuǎn)換為HSV格式。

代碼:

# All packages needed for the program are imported ahead

import cv2

cap = cv2.VideoCapture(0)

while(1):

# Capture frame-by-frame

_, frameinv = cap.read()

# flip horizontaly to get mirror image in camera

frame = cv2.flip( frameinv, 1)

# Our operations on the frame come here

hsv = cv2.cvtColor( frame, cv2.COLOR_BGR2HSV)

# Display the resulting frame

cv2.imshow(‘Frame’, hsv)

k = cv2.waitKey(10) & 0xFF

if k == 27:

break

cap.release()

cv2.destroyAllWindows()

第4步:顏色范圍

目標(biāo)二:

calibrateColor()

校準(zhǔn)顏色范圍

現(xiàn)在,用戶可以分別校準(zhǔn)他的三個(gè)手指的顏色范圍。這可以通過在程序開頭三次調(diào)用 calibrateColor()函數(shù)來完成。

用戶也可以選擇使用默認(rèn)設(shè)置。

代碼:

import cv2

import numpy as np

def nothing(x):

pass

# Create a black image, a window

kernel = np.zeros((300,512,3), np.uint8)

name = ‘Calibrate’

cv2.namedWindow(name)

# create trackbars for color change

cv2.createTrackbar(‘Hue’, name, 0, 255, nothing)

cv2.createTrackbar(‘Sat’, name, 0, 255, nothing)

cv2.createTrackbar(‘Val’, name, 0, 255, nothing)

# create switch for ON/OFF functionality

switch = ‘0 : OFF 1 : ON’

cv2.createTrackbar(switch, name,0,1,nothing)

while(1):

cv2.imshow(name,kernel)

k = cv2.waitKey(1) & 0xFF

if k == 27:

break

# get current positions of four trackbars

hue = cv2.getTrackbarPos(‘Hue’, name)

sat = cv2.getTrackbarPos(‘Sat’, name)

val = cv2.getTrackbarPos(‘Val’, name)

s = cv2.getTrackbarPos(switch,name)

if s == 0:

kernel[:] = 0

else:

kernel[:] = [hue,sat,val]

cv2.destroyAllWindows()

第5步:刪除噪音&在視頻源中定義函數(shù)

取決于校準(zhǔn),只使用 cv2.inRange()功能逐一從視頻中提取三個(gè)指尖。為了消除視頻輸入中的噪聲,我們應(yīng)用兩步態(tài)射,即侵蝕和擴(kuò)張。 然后發(fā)送程序中稱為掩碼的噪聲濾波圖像以定位中心。

# cv2.inRange function is used to filter out a particular color from the frame

# The result then undergoes morphosis i.e. erosion and dilation

# Resultant frame is returned as mask

def makeMask(hsv_frame, color_Range):

mask = cv2.inRange( hsv_frame, color_Range[0], color_Range[1])

# Morphosis next 。..

eroded = cv2.erode( mask, kernel, iterations=1)

dilated = cv2.dilate( eroded, kernel, iterations=1)

return dilated

三個(gè)中心的位置包括:

在與該顏色范圍相關(guān)的遮罩中查找輪廓。

使用區(qū)域過濾器丟棄不相關(guān)區(qū)域的輪廓。

在剩余的輪廓中找到最大的輪廓,并應(yīng)用力矩的方法找到它的中心。

然后是定義光標(biāo)在屏幕上的位置的步驟。黃色的拇指負(fù)責(zé)光標(biāo)的位置。為此目的使用了以下技術(shù):

?通常我們使用的網(wǎng)絡(luò)攝像頭以640x480像素的分辨率捕獲視頻。假設(shè)此幀線性映射到1920x1080像素顯示屏幕。如果我們有一個(gè)慣用右手的用戶,他會(huì)發(fā)現(xiàn)與右邊緣相比,訪問屏幕的左邊緣會(huì)感覺不舒服。訪問屏幕的底部也會(huì)在手腕處產(chǎn)生壓力。

我們意識(shí)到,不是將整個(gè)視頻幀映射到屏幕,我們寧愿考慮更偏向右側(cè)的矩形子部分(考慮右手用戶)和幀的上部以便改進(jìn)安慰。測(cè)量480x270像素的子部分然后以比例因子4線性映射到屏幕。

# Contours on the mask are detected.。 Only those lying in the previously set area

# range are filtered out and the centroid of the largest of these is drawn and returned

def drawCentroid(vid, color_area, mask, showCentroid):

contour, _ = cv2.findContours( mask, cv2.RETR_TREE, cv2.CHAIN_APPROX_SIMPLE)

l=len(contour)

area = np.zeros(l)

# filtering contours on the basis of area rane specified globally

for i in range(l):

if cv2.contourArea(contour[i])》color_area[0] and cv2.contourArea(contour[i])

# bringing contours with largest valid area to the top

for i in range(l):

for j in range(1):

if area[i] == a[j]:

swap( contour, i, j)

if l 》 0 :

# finding centroid using method of ‘moments’

M = cv2.moments(contour[0])

if M[‘m00’] != 0:

cx = int(M[‘m10’]/M[‘m00’])

cy = int(M[‘m01’]/M[‘m00’])

center = (cx,cy)

if showCentroid:

cv2.circle( vid, center, 5, (0,0,255), -1)

return center

else:

# return error handling values

return (-1,-1)

?由于網(wǎng)絡(luò)攝像頭捕獲的噪聲和手中的振動(dòng),中心保持不變圍繞一個(gè)平均位置振動(dòng)。在按比例放大時(shí),這些振動(dòng)會(huì)對(duì)光標(biāo)位置的準(zhǔn)確性產(chǎn)生很多問題。為了減少光標(biāo)中的抖動(dòng),我們使用光標(biāo)的差分位置分配。我們將新中心與光標(biāo)的先前位置進(jìn)行比較。如果差異小于5個(gè)像素,則通常是由于噪聲。因此,新光標(biāo)位置更傾向于前一個(gè)。但是,先前位置和新中心的較大差異被視為自愿移動(dòng),新光標(biāo)位置設(shè)置為接近新中心。有關(guān)詳細(xì)信息,請(qǐng)通過代碼中的setCursorPosition()函數(shù)。

‘’‘

This function takes as input the center of yellow region (yc) and

the previous cursor position (pyp)。 The new cursor position is calculated

in such a way that the mean deviation for desired steady state is reduced.

’‘’

def setCursorPos( yc, pyp):

yp = np.zeros(2)

if abs(yc[0]-pyp[0])《5 and abs(yc[1]-pyp[1])《5:

yp[0] = yc[0] + .7*(pyp[0]-yc[0])

yp[1] = yc[1] + .7*(pyp[1]-yc[1])

else:

yp[0] = yc[0] + .1*(pyp[0]-yc[0])

yp[1] = yc[1] + .1*(pyp[1]-yc[1])

return yp

現(xiàn)在發(fā)送三個(gè)中心,根據(jù)

的相對(duì)位置決定需要執(zhí)行哪些操作。這是在代碼中的chooseAction()函數(shù)中完成的。根據(jù)其輸出,performAction()函數(shù)使用PyAutoGUI庫執(zhí)行以下任一操作:

自由光標(biāo)移動(dòng)

左鍵單擊

右鍵單擊

拖動(dòng)/選擇

向上滾動(dòng)

向下滾動(dòng)

# Depending upon the relative positions of the three centroids, this function chooses whether

# the user desires free movement of cursor, left click, right click or dragging

def chooseAction(yp, rc, bc):

out = np.array([‘move’, ‘false’])

if rc[0]!=-1 and bc[0]!=-1:

if distance(yp,rc)《50 and distance(yp,bc)《50 and distance(rc,bc)《50 :

out[0] = ‘drag’

out[1] = ‘true’

return out

elif distance(rc,bc)《40:

out[0] = ‘right’

return out

elif distance(yp,rc)《40:

out[0] = ‘left’

return out

elif distance(yp,rc)》40 and rc[1]-bc[1]》120:

out[0] = ‘down’

return out

elif bc[1]-rc[1]》110:

out[0] = ‘up’

return out

else:

return out

else:

out[0] = -1

return out def performAction( yp, rc, bc, action, drag, perform):

if perform:

cursor[0] = 4*(yp[0]-110)

cursor[1] = 4*(yp[1]-120)

if action == ‘move’:

if yp[0]》110 and yp[0]《590 and yp[1]》120 and yp[1]《390:

pyautogui.moveTo(cursor[0],cursor[1])

elif yp[0]《110 and yp[1]》120 and yp[1]《390:

pyautogui.moveTo( 8 , cursor[1])

elif yp[0]》590 and yp[1]》120 and yp[1]《390:

pyautogui.moveTo(1912, cursor[1])

elif yp[0]》110 and yp[0]《590 and yp[1]《120:

pyautogui.moveTo(cursor[0] , 8)

elif yp[0]》110 and yp[0]《590 and yp[1]》390:

pyautogui.moveTo(cursor[0] , 1072)

elif yp[0]《110 and yp[1]《120:

pyautogui.moveTo(8, 8)

elif yp[0]《110 and yp[1]》390:

pyautogui.moveTo(8, 1072)

elif yp[0]》590 and yp[1]》390:

pyautogui.moveTo(1912, 1072)

else:

pyautogui.moveTo(1912, 8)

elif action == ‘left’:

pyautogui.click(button = ‘left’)

elif action == ‘right’:

pyautogui.click(button = ‘right’)

time.sleep(0.3)

elif action == ‘up’:

pyautogui.scroll(5)

# time.sleep(0.3)

elif action == ‘down’:

pyautogui.scroll(-5)

# time.sleep(0.3)

elif action == ‘drag’ and drag == ‘true’:

global y_pos

drag = ‘false’

pyautogui.mouseDown()

while(1):

k = cv2.waitKey(10) & 0xFF

changeStatus(k)

_, frameinv = cap.read()

# flip horizontaly to get mirror image in camera

frame = cv2.flip( frameinv, 1)

hsv = cv2.cvtColor( frame, cv2.COLOR_BGR2HSV)

b_mask = makeMask( hsv, blue_range)

r_mask = makeMask( hsv, red_range)

y_mask = makeMask( hsv, yellow_range)

py_pos = y_pos

b_cen = drawCentroid( frame, b_area, b_mask, showCentroid)

r_cen = drawCentroid( frame, r_area, r_mask, showCentroid)

y_cen = drawCentroid( frame, y_area, y_mask, showCentroid)

if py_pos[0]!=-1 and y_cen[0]!=-1:

y_pos = setCursorPos(y_cen, py_pos)

performAction(y_pos, r_cen, b_cen, ‘move’, drag, perform)

cv2.imshow(‘Frame’, frame)

if distance(y_pos,r_cen)》60 or distance(y_pos,b_cen)》60 or distance(r_cen,b_cen)》60:

break

pyautogui.mouseUp()

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 鼠標(biāo)
    +關(guān)注

    關(guān)注

    6

    文章

    597

    瀏覽量

    41764
  • 手勢(shì)控制
    +關(guān)注

    關(guān)注

    4

    文章

    44

    瀏覽量

    22203
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    零知IDE——基于零知標(biāo)準(zhǔn)板驅(qū)動(dòng)PAJ7620U2手勢(shì)控制L9110風(fēng)扇模塊和SG90舵機(jī)系統(tǒng)

    控制器,結(jié)合PAJ7620U2手勢(shì)傳感器實(shí)現(xiàn)對(duì)L9110風(fēng)扇模塊和SG90舵機(jī)的智能控制。系統(tǒng)通過識(shí)別9種不同的手勢(shì)動(dòng)作(上下、左右、順時(shí)針/逆時(shí)針、揮手、前推、后拉)分別
    發(fā)表于 01-06 11:56

    零知IDE——基于STM32F103RBT6的PAJ7620U2手勢(shì)控制WS2812 RGB燈帶系統(tǒng)

    先進(jìn)的PAJ7620U2手勢(shì)識(shí)別傳感器和WS2812B RGB LED燈帶,實(shí)現(xiàn)智能手勢(shì)開關(guān)控制功能。系統(tǒng)能夠?qū)崟r(shí)檢測(cè)手部在三維空間中的位置和運(yùn)動(dòng)軌跡,并將這些動(dòng)作信息轉(zhuǎn)換為直觀、絢麗的燈光效果項(xiàng)目
    發(fā)表于 12-29 19:04

    零知IDE——基于STM32F103RBT6的PAJ7620U2手勢(shì)控制WS2812 RGB燈帶系統(tǒng)

    基于STM32F103RBT6的手勢(shì)控制LED系統(tǒng),通過PAJ7620U2傳感器識(shí)別手勢(shì)動(dòng)作,驅(qū)動(dòng)WS2812B燈帶實(shí)現(xiàn)交互式燈光效果。系統(tǒng)采用軟件I2C通信和SPI+DMA驅(qū)動(dòng)方案,支持揮手開關(guān)機(jī)、手部位置跟蹤及彩虹尾影效果。
    的頭像 發(fā)表于 12-29 17:48 ?1929次閱讀
    零知IDE——基于STM32F103RBT6的PAJ7620U2<b class='flag-5'>手勢(shì)</b><b class='flag-5'>控制</b>WS2812 RGB燈帶系統(tǒng)

    傳統(tǒng)油煙機(jī)智能化升級(jí)之雷達(dá)手勢(shì)感應(yīng)喚醒控制方案

    喚醒和手勢(shì)控制的目的 。 紅海突圍:小品牌的功能升級(jí)難題 油煙機(jī)市場(chǎng)早已是一片紅海。頭部品牌占據(jù)高端市場(chǎng),小品牌若想在夾縫中生存,必須在產(chǎn)品力上做文章。在智能家居發(fā)展趨勢(shì)下,加入微波雷達(dá)人體感應(yīng)功能作為氛圍燈的觸
    的頭像 發(fā)表于 11-12 09:28 ?528次閱讀
    傳統(tǒng)油煙機(jī)智能化升級(jí)之雷達(dá)<b class='flag-5'>手勢(shì)</b>感應(yīng)喚醒<b class='flag-5'>控制</b>方案

    基于STMicroelectronics AEK-SNS-2TOFM1手勢(shì)檢測(cè)系統(tǒng)的技術(shù)解析與應(yīng)用實(shí)踐

    STMicroelectronics AEK-SNS-2TOFM1預(yù)定義手勢(shì)檢測(cè)系統(tǒng)包括兩個(gè)飛行時(shí)間測(cè)距傳感器。這些傳感器彼此距離23cm放置。車載SPC582B60E1微控制器讀取傳感器數(shù)據(jù)并檢測(cè)預(yù)定義的手勢(shì)/腳勢(shì)。該解決方案
    的頭像 發(fā)表于 10-29 16:07 ?690次閱讀
    基于STMicroelectronics AEK-SNS-2TOFM1<b class='flag-5'>手勢(shì)</b>檢測(cè)系統(tǒng)的技術(shù)解析與應(yīng)用實(shí)踐

    【技術(shù)討論】智能戒指手勢(shì)交互:如何優(yōu)化PCBA成本與實(shí)現(xiàn)<20ms低延遲?

    我們正在開發(fā)一款通過手勢(shì)實(shí)時(shí)控制音樂的嵌入式可穿戴設(shè)備(架構(gòu)如圖:nRF5340主控 + ICM-42607 IMU)。希望重構(gòu)聽眾與音樂之間的關(guān)系。在早期小批量生產(chǎn)中,我們面臨兩個(gè)核心挑戰(zhàn),希望
    發(fā)表于 10-18 13:04

    無需手持更靈活!納祥科技智能帽夾燈方案(紅外感應(yīng)+手勢(shì)控制

    控制技術(shù),有效解決了傳統(tǒng)手持電筒笨重、依賴手持操作的局限性。方案概述本方案以低功耗單片機(jī)為中樞,支持感應(yīng)和常規(guī)2種工作模式:感應(yīng)模式可通過紅外對(duì)管實(shí)現(xiàn)手勢(shì)識(shí)別,來
    的頭像 發(fā)表于 10-10 15:09 ?559次閱讀
    無需手持更靈活!納祥科技智能帽夾燈方案(紅外感應(yīng)+<b class='flag-5'>手勢(shì)</b><b class='flag-5'>控制</b>)

    XenG202G | 揮手手勢(shì)識(shí)別參考設(shè)計(jì)(三維)

    WEMAKERFSMART-賦予萬物感知的靈魂-矽典微ICLEGENDMICROXenG202G揮手手勢(shì)識(shí)別(三維)毫米波傳感器特征手勢(shì)識(shí)別:非接觸式控制,高精度手勢(shì)動(dòng)作識(shí)別,支持方向
    的頭像 發(fā)表于 08-29 08:25 ?705次閱讀
    XenG202G | 揮手<b class='flag-5'>手勢(shì)</b>識(shí)別參考設(shè)計(jì)(三維)

    無線鼠標(biāo)可以用充電寶充電嗎?

    無線鼠標(biāo)可通過充電寶續(xù)命,需考慮電池類型、接口匹配及功率適配。
    的頭像 發(fā)表于 08-22 08:26 ?1833次閱讀
    無線<b class='flag-5'>鼠標(biāo)</b>可以用充電寶充電嗎?

    基于LabVIEW的鼠標(biāo)滑動(dòng)方向檢測(cè)教程

    本篇教程源于一位客戶的真實(shí)需求,需要LabVIEW能夠檢測(cè)到鼠標(biāo)滑動(dòng)的方向,然后通過判斷滑動(dòng)方向處理后續(xù)的功能。
    的頭像 發(fā)表于 07-30 13:51 ?897次閱讀
    基于LabVIEW的<b class='flag-5'>鼠標(biāo)</b>滑動(dòng)方向檢測(cè)教程

    如何打造一個(gè)屬于自己的手勢(shì)識(shí)別應(yīng)用

    上一期小編給大家介紹了和MediaPipe的相遇之路,本期小編將帶著大家一起來動(dòng)手,如何打造一個(gè)屬于自己的手勢(shì)識(shí)別應(yīng)用。
    的頭像 發(fā)表于 07-29 10:12 ?1200次閱讀
    如何打造一個(gè)屬于自己的<b class='flag-5'>手勢(shì)</b>識(shí)別應(yīng)用

    基于stm32和mpu9250的usb hid鍵盤、鼠標(biāo)、游戲控制器實(shí)例打包下載

    基于stm32和mpu9250的usb hid鍵盤、鼠標(biāo)、游戲控制器實(shí)例打包,推薦下載!
    發(fā)表于 05-29 21:44

    基于stm32和mpu9250的usb hid鍵盤、鼠標(biāo)、游戲控制

    基于stm32和mpu9250的usb hid鍵盤、鼠標(biāo)、游戲控制器 項(xiàng)目實(shí)例下載! 純分享帖,需要者可點(diǎn)擊附件免費(fèi)獲取完整資料~~~【免責(zé)聲明】本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請(qǐng)第一時(shí)間告知,刪除內(nèi)容!
    發(fā)表于 05-23 20:53

    如何移動(dòng)鼠標(biāo)時(shí)高亮下方的網(wǎng)絡(luò)?

    “?在其他 EDA 工具中,當(dāng)移動(dòng)鼠標(biāo)時(shí),會(huì)默認(rèn)高亮鼠標(biāo)下方的網(wǎng)絡(luò),非常便捷,KiCad 有類似的功能嗎??” 先給出答案:KiCad 并沒有可以“鎖定”高亮鼠標(biāo)下方網(wǎng)絡(luò)的功能,但可以通過使用快捷鍵
    的頭像 發(fā)表于 04-29 16:58 ?1133次閱讀
    如何移動(dòng)<b class='flag-5'>鼠標(biāo)</b>時(shí)高亮下方的網(wǎng)絡(luò)?

    基于Nordic nRF52840無線鍵盤、鼠標(biāo)物聯(lián)網(wǎng)解決方案

    隨著物聯(lián)網(wǎng)技術(shù)的快速發(fā)展,無線鍵盤鼠標(biāo)方案在辦公場(chǎng)景中正發(fā)揮著越來越重要的作用。該方案基于BLE(低功耗藍(lán)牙)和物聯(lián)網(wǎng)技術(shù),為用戶提供了無線、便捷、高效的輸入和控制體驗(yàn)。 方案說明: 無線鍵盤鼠標(biāo)
    發(fā)表于 03-25 17:44