gpt4 book ai didi

Raspberry Pi 上的 Python 延迟

转载 作者:太空宇宙 更新时间:2023-11-03 11:45:37 25 4
gpt4 key购买 nike

我正在尝试模拟用于校准研究仪器的复合 Action 电位。目标是在 250 Hz 时输出特定的 10 µV 信号。低电压稍后会处理,对我来说主要问题是频率。下图显示了我正在尝试制作的系统的概览。

enter image description here

通过从活体动物身上采集数据,并在 MATLAB 中处理数据,我制作了一个低噪声信号,具有 12 位格式的 789 个值。然后我使用 Git 将我以 csv 格式存储它的存储库克隆到 Raspberry Pi。下面是我在 RPi 上编写的 Python 脚本。您可以跳到脚本中的 def main 以查看功能。

#!/usr/bin/python

import spidev
from time import sleep
import RPi.GPIO as GPIO
import csv
import sys
import math

DEBUG = False
spi_max_speed = 20 * 1000000
V_Ref = 5000
Resolution = 2**12
CE = 0

spi = spidev.SpiDev()
spi.open(0,CE)
spi.max_speed_hz = spi_max_speed

LDAQ = 22
GPIO.setmode(GPIO.BOARD)
GPIO.setup(LDAQ, GPIO.OUT)
GPIO.output(LDAQ,GPIO.LOW)

def setOutput(val):
lowByte = val & 0b11111111 #Make bytes using MCP4921 data sheet info
highByte = ((val >> 8) & 0xff) | 0b0 << 7 | 0b0 << 6 | 0b1 << 5 | 0b1 << 4
if DEBUG :
print("Highbyte = {0:8b}".format(highByte))
print("Lowbyte = {0:8b}".format(lowByte))
spi.xfer2([highByte, lowByte])

def main():
with open('signal12bit.csv') as signal:
signal_length = float(raw_input("Please input signal length in ms: "))
delay = float(raw_input("Please input delay after signal in ms: "))
amplitude = float(raw_input("Please input signal amplitude in mV: "))
print "Starting Simulant with signal length %.1f ms, delay %.1f ms and amplitude %.1f mV." % (signal_length, delay, amplitude)
if not DEBUG : print "Press ctrl+c to close."
sleep (1) #Wait a sec before starting
read = csv.reader(signal, delimiter=' ', quotechar='|')
try:
while(True):
signal.seek(0)
for row in read: #Loop csv file rows
if DEBUG : print ', '.join(row)
setOutput(int(row)/int((V_Ref/amplitude))) #Adjust amplitude, not super necessary to do in software
sleep (signal_length/(data_points*1000) #Divide by 1000 to make into ms, divide by length of data
sleep (delay/1000)
except (KeyboardInterrupt, Exception) as e:
print(e)
print "Closing SPI channel"
setOutput(0)
GPIO.cleanup()
spi.close()

if __name__ == '__main__':
main()

此脚本几乎可以按预期工作。将 MCP4921 DAC 的输出引脚连接到示波器表明它可以很好地再现信号,并且可以正确输出后续延迟。

不幸的是,数据点的分离比我需要的要远得多。我可以将信号塞入的最短时间约为 79 毫秒。这是由于在 sleep 函数中除以 789000,我知道这对 Python 和 Pi 要求太多,因为读取 csv 文件需要时间。但是,如果我尝试手动创建一个数组,并将这些值输出而不是读取 csv 文件,我可以实现超过 6 kHz 的频率而不会造成任何损失。

我的问题是这样的

如何让这个信号以 250 Hz 的频率出现,并根据用户的输入可靠地降低它?我考虑过手动将 789 个值写入脚本中的数组,然后将 SPI 速度更改为适合 250 Hz 的任何值。这将消除缓慢的 csv 阅读器功能,但您无法降低用户输入的频率。无论如何,消除对 csv.read 的需要会有很大帮助。谢谢!

最佳答案

今天早些时候弄明白了,所以我想我会在这里发布一个答案,以防将来有人遇到类似的问题。

由于多种原因,数据点之间的内部延迟问题无法通过 sleep() 解决。我最终做的是以下内容

  • 所有数学和函数调用移出关键循环
  • 对无延迟传输值所需的时间进行线性回归分析
  • 在 MATLAB 中将 CSV 文件中的数据点数量增加到“大量”(9600)
  • 计算满足用户所需信号长度所需的点数
  • 从现在更大的 CSV 文件中均匀分离条目,以尽可能接近该点数。
  • 计算这些值,然后显式计算 SPI 字节
  • 保存两个字节列表,并在关键循环中直接输出

下面是带有一些输入检查的新代码

#!/usr/bin/python

import spidev
from time import sleep
import RPi.GPIO as GPIO
import sys
import csv
import ast

spi_max_speed = 16 * 1000000 # 16 MHz
V_Ref = 5000 # 5V in mV
Resolution = 2**12 # 12 bits for the MCP 4921
CE = 0 # CE0 or CE1, select SPI device on bus
total_data_points = 9600 #CSV file length

spi = spidev.SpiDev()
spi.open(0,CE)
spi.max_speed_hz = spi_max_speed

LDAQ=22
GPIO.setmode(GPIO.BOARD)
GPIO.setup(LDAQ, GPIO.OUT)
GPIO.output(LDAQ,GPIO.LOW)

def main():

#User inputs and checking for digits
signalLengthU = raw_input("Input signal length in ms, minimum 4: ")
if signalLengthU.isdigit():
signalLength = signalLengthU
else:
signalLength = 4

delayU = raw_input("Input delay after signal in ms: ")
if delayU.isdigit():
delay = delayU
else:
delay = 0

amplitudeU = raw_input("Input signal amplitude in mV, between 1 and 5000: ")
if amplitudeU.isdigit():
amplitude = amplitudeU
else:
amplitude = 5000

#Calculate data points, delay, and amplitude
data_points = int((1000*float(signalLength)-24.6418)/12.3291)
signalDelay = float(delay)/1000
setAmplitude = V_Ref/float(amplitude)

#Load and save CSV file
datain = open('signal12bit.csv')
read = csv.reader(datain, delimiter=' ', quotechar='|')
signal = []
for row in read:
signal.append(ast.literal_eval(row[0]))

#Downsampling to achieve desired signal length
downsampling = int(round(total_data_points/data_points))
signalSpeed = signal[0::downsampling]
listlen = len(signalSpeed)

#Construction of SPI bytes, to avoid calling functions in critical loop
lowByte = []
highByte = []
for i in signalSpeed:
lowByte.append(int(i/setAmplitude) & 0b11111111)
highByte.append(((int(i/setAmplitude) >> 8) & 0xff) | 0b0 << 7 | 0b0 << 6 | 0b1 << 5 | 0b1 << 4)

print "Starting Simulant with signal length %s ms, delay %s ms and amplitude %s mV." % (signalLength, delay, amplitude)
print "Press ctrl+c to stop."
sleep (1)

try:
while(True): #Main loop
for i in range(listlen):
spi.xfer2([highByte[i],lowByte[i]]) #Critical loop, no delay!
sleep (signalDelay)
except (KeyboardInterrupt, Exception) as e:
print e
print "Closing SPI channel"
lowByte = 0 & 0b11111111
highByte = ((0 >> 8) & 0xff) | 0b0 << 7 | 0b0 << 6 | 0b1 << 5 | 0b1 << 4
spi.xfer2([highByte, lowByte])
GPIO.cleanup()
spi.close()

if __name__ == '__main__':
main()

结果正是我想要的。下面是信号长度为 5 ms 的示波器示例; 200赫兹。谢谢你们的帮助,伙计们!

Oscilloscope reading

关于Raspberry Pi 上的 Python 延迟,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40360702/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com