gpt4 book ai didi

PHP:一次性将 10.000 行插入 mysql 性能

转载 作者:可可西里 更新时间:2023-11-01 08:05:49 26 4
gpt4 key购买 nike

我需要读取一个包含约 10.000 行的 excel 文件并将它们保存到 MySQL 中的一个表中。我使用的方法是创建一个 foreach() 循环,并在其中准备、绑定(bind)和执行每一行。

执行时间大约为 130 秒,我认为这很糟糕。那是在本地主机上,所以当脚本将实时运行(共享主机)时,执行时间肯定会更长。

这是代码

ini_set('max_execution_time', 300);

$time_start = microtime(true);

$user = 'root';
$pass = '';
$driver_options = array(
PDO::MYSQL_ATTR_INIT_COMMAND => "SET NAMES 'utf8'",
PDO::ATTR_ERRMODE => PDO::ERRMODE_EXCEPTION,
PDO::ATTR_DEFAULT_FETCH_MODE => PDO::FETCH_OBJ,
);
try {
$dbh = new PDO('mysql:host=127.0.0.1;dbname=excel', $user, $pass, $driver_options);
} catch (PDOException $e) {
print "Error!: " . $e->getMessage() . "<br/>";
die();
}

set_include_path(get_include_path() . PATH_SEPARATOR . 'Classes/');

/** PHPExcel_IOFactory */
include 'PHPExcel/IOFactory.php';
$inputFileName = 'original.xls';
try {
$objPHPExcel = PHPExcel_IOFactory::load($inputFileName);
} catch(Exception $e) {
die('Error loading file "'.pathinfo($inputFileName,PATHINFO_BASENAME).'": '.$e->getMessage());
}

/*
cap [X] - loc [AK]
targa [D]
fabbrica [F]
provincia di residenza [V] - loc [AI]
comune di residenza [W] - loc [AJ]
data prima immatricolazione [AB]
dati anagrafici [T] - loc [AG]
*/

$xls = $objPHPExcel->getActiveSheet()->toArray(null,true,true,true);
$headers = $xls[1];
$loops = 0;
$rows = array_slice($xls, 1);

foreach ( $rows as $row ) {

$excelData = array(
'targa' => $row['D'],
'fabbrica' => $row['F'],
'immatricolazione' => $row['AB'],
'cap' => $row['AK'] == '' ? $row['X'] : $row['AK'],
'datiAnagrafici' => $row['AG'] == '' ? $row['T'] : $row['AG'],
'comuneResidenza' => $row['AJ'] == '' ? $row['W'] : $row['AJ'],
'provinciaResidenza' => $row['AI'] == '' ? $row['V'] : $row['AI']
);

$insert = $dbh->prepare("
INSERT INTO
data(targa, fabbrica, immatricolazione, cap, datiAnagrafici, comuneResidenza, provinciaResidenza)
VALUES(:targa, :fabbrica, :immatricolazione, :cap, :datiAnagrafici, :comuneResidenza, :provinciaResidenza)
");
$insert->execute($excelData);
if ( $insert->rowCount() != 1 ) {
echo 'Script interrupted at loop nr. '.$loops;
break;
}

++$loops;

}

$time_end = microtime(true);

$execution_time = ($time_end - $time_start);

echo '<b>Total Execution Time:</b> '.$execution_time.' s';

有什么方法可以明智地优化代码性能吗?循环有问题吗?

谢谢。

最佳答案

如果你能轻松convert the XLS to CSV , 您可以使用 LOAD DATA INFILE mysql中的语句。这将快得多。

关于PHP:一次性将 10.000 行插入 mysql 性能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/23620248/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com