gpt4 book ai didi

Powershell 速度 : How to speed up ForEach-Object MD5/hash check

转载 作者:行者123 更新时间:2023-12-04 02:20:59 30 4
gpt4 key购买 nike

我正在对 5 亿个文件运行以下 MD5 检查以检查重复项。脚本需要永远运行,我想知道如何加快速度。我怎么能加快速度?当散列已经存在时,我可以使用 try catch 循环而不是 contains 来抛出错误吗?大家会推荐什么?

$folder = Read-Host -Prompt 'Enter a folder path'

$hash = @{}
$lineCheck = 0

Get-ChildItem $folder -Recurse | where {! $_.PSIsContainer} | ForEach-Object {
$lineCheck++
Write-Host $lineCheck
$tempMD5 = (Get-FileHash -LiteralPath $_.FullName -Algorithm MD5).Hash;

if(! $hash.Contains($tempMD5)){
$hash.Add($tempMD5,$_.FullName)
}
else{
Remove-Item -literalPath $_.fullname;
}
}

最佳答案

正如评论中所建议的,您可能会考虑仅在与首先找到的文件长度匹配时才开始对文件进行哈希处理。这意味着您不会为任何唯一的文件长度调用昂贵的哈希方法。

*注意:Write-Host命令本身非常昂贵,因此我不会显示每次迭代( Write-Host $lineCheck ),但例如仅当找到匹配项时。

$Folder = Read-Host -Prompt 'Enter a folder path'

$FilesBySize = @{}
$FilesByHash = @{}

Function MatchHash([String]$FullName) {
$Hash = (Get-FileHash -LiteralPath $FullName -Algorithm MD5).Hash
$Found = $FilesByHash.Contains($Hash)
If ($Found) {$Null = $FilesByHash[$Hash].Add($FullName)}
Else {$FilesByHash[$Hash] = [System.Collections.ArrayList]@($FullName)}
$Found
}

Get-ChildItem $Folder -Recurse | Where-Object -Not PSIsContainer | ForEach-Object {
$Files = $FilesBySize[$_.Length]
If ($Files) {
If ($Files.Count -eq 1) {$Null = MatchHash $Files[0]}
If ($Files.Count -ge 1) {If (MatchHash $_) {Write-Host 'Found match:' $_.FullName}}
$Null = $FilesBySize[$_.Length].Add($_.FullName)
} Else {
$FilesBySize[$_.Length] = [System.Collections.ArrayList]@($_.FullName)
}
}

显示找到的重复项:
ForEach($Hash in $FilesByHash.GetEnumerator()) {
If ($Hash.Value.Count -gt 1) {
Write-Host 'Hash:' $Hash.Name
ForEach ($File in $Hash.Value) {
Write-Host 'File:' $File
}
}
}

关于Powershell 速度 : How to speed up ForEach-Object MD5/hash check,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59914704/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com