- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
在我当前的项目中,当我运行测试(使用 pytest
)时,我得到了这个输出(除了其他):
ml_framework/tests/test_impute.py: 8 warnings
ml_framework/tests/test_transform_pipeline.py: 9 warnings
ml_framework/tests/test_data_transforms.py: 27 warnings
ml_framework/tests/test_jsonizer.py: 4 warnings
/home/sondracek/anaconda3/envs/p3.8/lib/python3.8/site-packages/sklearn/utils/validation.py:70: FutureWarning: Pass standardize=False as keyword args. From version 1.0 (renaming of 0.25) passing these as positional arguments will result in an error
warnings.warn(f"Pass {args_msg} as keyword args. From version "
此
FutureWarning
很清楚 - 从 1.0 版开始(我现在正在使用
0.24
),某些参数会发生变化,我将无法通过
standardize
作为位置参数。
validation.py
警告输出中提到的,但有一般
_deprecate_positional_args
没有告诉我哪个代码调用它的函数。
PowerTransformer
进口自
sklearn.preprocessing
在我的代码中使用的有
standardize
参数并在列出的测试中进行测试。
有没有一种通用的方法可以轻松找到任何 FutureWarning
的原因? ? 或者我是否需要检查我的所有代码并尝试以某种方式找到它?
最佳答案
Pytest 让你养FutureWarning
作为错误,这样它指向引发警告的代码位置,最简单的方法是通过警告标志
pytest -W error::FutureWarning test_script.py
或内部
test_script.py
通过
pytestmark
pytestmark = pytest.mark.filterwarnings("error::FutureWarning")
您可以阅读有关指定对警告采取的操作的更多信息
here和
here .
test_transform.py
脚本
# test_transform.py
import pytest
pytestmark = pytest.mark.filterwarnings("error::FutureWarning")
def test_transformer_boxcox():
from sklearn.preprocessing import PowerTransformer
pt = PowerTransformer('box-cox', False)
assert True
def test_transformer_yeo_johnson():
from sklearn.preprocessing import PowerTransformer
pt = PowerTransformer('yeo-johnson', False)
assert True
并在终端上运行
pytest test_transform.py > logs.log
日志准确地告诉我
PowerTransformer
提出了
FutureWarning
.
===================================================== test session starts =====================================================
platform linux -- Python 3.7.6, pytest-6.2.2, py-1.10.0, pluggy-0.13.1
rootdir: /home/jovyan/work
collected 2 items
test_transform.py FF [100%]
========================================================== FAILURES ===========================================================
___________________________________________________ test_transformer_boxcox ___________________________________________________
def test_transformer_boxcox():
from sklearn.preprocessing import PowerTransformer
> pt = PowerTransformer('box-cox', False)
test_transform.py:11:
_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _
args = (<[AttributeError("'PowerTransformer' object has no attribute 'copy'") raised in repr()] PowerTransformer object at 0x7fa0bda14d50>, 'box-cox', False)
kwargs = {}, extra_args = 1, args_msg = 'standardize=False'
@wraps(f)
def inner_f(*args, **kwargs):
extra_args = len(args) - len(all_args)
if extra_args <= 0:
return f(*args, **kwargs)
# extra_args > 0
args_msg = ['{}={}'.format(name, arg)
for name, arg in zip(kwonly_args[:extra_args],
args[-extra_args:])]
args_msg = ", ".join(args_msg)
warnings.warn(f"Pass {args_msg} as keyword args. From version "
f"{version} passing these as positional arguments "
> "will result in an error", FutureWarning)
E FutureWarning: Pass standardize=False as keyword args. From version 1.0 (renaming of 0.25) passing these as positional arguments will result in an error
/opt/conda/lib/python3.7/site-packages/sklearn/utils/validation.py:72: FutureWarning
________________________________________________ test_transformer_yeo_johnson _________________________________________________
def test_transformer_yeo_johnson():
from sklearn.preprocessing import PowerTransformer
> pt = PowerTransformer('yeo-johnson', False)
test_transform.py:20:
_ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _
args = (<[AttributeError("'PowerTransformer' object has no attribute 'copy'") raised in repr()] PowerTransformer object at 0x7fa0bd02f750>, 'yeo-johnson', False)
kwargs = {}, extra_args = 1, args_msg = 'standardize=False'
@wraps(f)
def inner_f(*args, **kwargs):
extra_args = len(args) - len(all_args)
if extra_args <= 0:
return f(*args, **kwargs)
# extra_args > 0
args_msg = ['{}={}'.format(name, arg)
for name, arg in zip(kwonly_args[:extra_args],
args[-extra_args:])]
args_msg = ", ".join(args_msg)
warnings.warn(f"Pass {args_msg} as keyword args. From version "
f"{version} passing these as positional arguments "
> "will result in an error", FutureWarning)
E FutureWarning: Pass standardize=False as keyword args. From version 1.0 (renaming of 0.25) passing these as positional arguments will result in an error
/opt/conda/lib/python3.7/site-packages/sklearn/utils/validation.py:72: FutureWarning
=================================================== short test summary info ===================================================
FAILED test_transform.py::test_transformer_boxcox - FutureWarning: Pass standardize=False as keyword args. From version 1.0 ...
FAILED test_transform.py::test_transformer_yeo_johnson - FutureWarning: Pass standardize=False as keyword args. From version...
====================================================== 2 failed in 0.71s ======================================================
关于python - Pytest:如何找到 FutureWarning 并修复它?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/66900236/
我需要在整体超时的情况下停止测试用例,而不是在测试用例级别。 所以如果让我说我有 300 个测试用例,我想超时,总时间为 300 秒。 有没有办法做到这一点? 用于运行 pytest 的示例命令 py
我会默认使用一些参数( -n 2 )运行 pytest 但如果我只输入 pytest ... ,我不希望默认使用该参数直接运行pytest。这可能吗? 如果我包括这个: [pytest] addopt
给定以下模型: import pytest class DummyFile(pytest.File): def collect(self): yield DummyItem(s
对于 pytest,我正在使用库 pytest-dependency 设置依赖项.我还为这些测试添加了标记。这是一个 ECM: # test_test.py import pytest @pytest
我想使用逻辑来控制我的测试的顺序,这将在它们已经运行时动态重新排序它们。 我的用例是这样的:我正在使用 xdist 并行化我的测试,并且每个测试都使用来自公共(public)和有限池的外部资源。一些测
我需要标记要跳过的某些测试。但是,有些测试是参数化的,我只需要能够跳过某些场景。 我使用 py.test -m "hermes_only" 调用测试或 py.test -m "not hermes_o
问题是我给定的 fixture 函数具有外部依赖性,这会导致“错误”(例如无法访问的网络/资源不足等)。 我想跳过 fixture ,然后跳过任何依赖于该 fixture 的测试。 做这样的事情是行不
我正在试用 pytest首次。我如何抑制发出的关于我的代码所依赖的其他人的代码的警告而不抑制关于我自己的代码的警告? 现在我的 pytest.ini 中有这个所以我不必看到 pytest 警告我关于
我试图跳过依赖于命令行参数值的特定测试。我尝试使用 pytest.config.getoption("--some-custom-argument") 获取参数值就像这里描述的一样 related q
我目前使用的是 python 3.5.1 和 3.6 以及最新版本的 pytest。当使用参数化测试运行 pytest 时,我希望任何失败的测试仅显示失败的测试,而不是参数化测试的所有设置。 解释一下
在我的测试套件中,我有一些数据生成装置,用于许多参数化测试。其中一些测试希望这些装置在每个 session 中只运行一次,而另一些则需要它们运行每个功能。例如,我可能有一个类似于: @pytest.f
我想在运行时获取测试名称和测试结果。 我有 setup和 tearDown我的脚本中的方法。在 setup ,我需要获取测试名称,并在 tearDown我需要得到测试结果和测试执行时间。 有没有办法我
有没有办法在 PyTest fixture 中定义标记? 当我指定 -m "not slow" 时,我试图禁用慢速测试在 pytest 中。 我已经能够禁用单个测试,但不能禁用用于多个测试的 fixt
我最低限度地使用 pytest 作为针对工作中各种 API 产品的大型自动化集成测试的通用测试运行器,并且我一直在尝试寻找一个同样通用的拆卸函数示例,该函数在任何测试完成时运行,无论成功或失败。 我的
即使在写入管道时,如何强制 pytest 以颜色显示结果?似乎没有任何命令行选项可以这样做。 最佳答案 从 2.5.0 开始,py.test 有选项 --color=yes 从 2.7.0 开始,还应
作为一组更大的测试的一小部分,我有一套测试函数,我想在每个对象列表上运行。基本上,我有一组插件和一组“插件测试”。 天真地,我可以只列出一个带有插件参数的测试函数列表和一个插件列表,然后进行测试,我在
我想为 pytest-xdist 产生的每个子进程/网关创建一个单独的日志文件。是否有一种优雅的方法可以找出 pytest 当前所在的子进程/网关?我正在使用位于 conftest.py 的 sess
我的测试脚本如下 @pytest.fixture(scope="Module", Autouse="True") def setup_test(): ....................
我正在尝试像这样参数化我的类测试: @pytest.mark.parametrize('current_user', ["test_profile_premium", "test_profile_fr
我不明白如何正确运行一个简单的测试(功能文件和 python 文件) 与图书馆 pytest-bdd . 来自官方documentation ,我无法理解要发出什么命令来运行测试。 我尝试使用 pyt
我是一名优秀的程序员,十分优秀!