龙空技术网

Mysql大量写入数据优化想了解一下不

自学PHPer 194

前言:

此刻朋友们对“mysql写入数据一刷新就没了”可能比较关注,朋友们都想要学习一些“mysql写入数据一刷新就没了”的相关内容。那么小编在网摘上收集了一些关于“mysql写入数据一刷新就没了””的相关知识,希望你们能喜欢,大家快快来了解一下吧!

测试环境

配置直接影响执行速度,先上一下测试机配置:

cpu i7 5500U(低电压伤不起,以后再也不买低电压的U了)内存 8G ddr3 1600php 7.1mysql 5.5.40开发框架 CodeIgniter 3.1.2

影响写入效率的因素都有什么?

数据库引擎

开发中常用的数据库引擎 MyISAM,InnoDB 这两种,其他的数据库引擎我在开发中还没用到,所以不在这里测试了。

先看一下库表结构 :

test库下有两张表:分别为上面提的两种引擎:

每张表结构如下(一个自增id,一个varchar类型待插入字段):

缺省状态下对两表插入20w数据看一下效率:

PHP代码如下:

20w 数据 Myisam要 接近3分钟了。

看一下InnoDb缺省状态下执行时间:

插入1w条数据 用了 6分49秒,没办法等下去了, 按照这个数据量推测 6分49 * 20 = ???

后期由于数据量增多,也会影响插入性能,所以InnoDb默认状态插入20w单字段数据要2小时以上,无法 忍受。

业务逻辑

显然上面的业务逻辑是有问题的,每条数据单次插入,增加了mysql的开销,每次插入数据都要重新连 接一下mysql,肯定是相当浪费资源了。所以CI提供了 insert_batch(),批量写入数据。Thinkphp3.2 也有addAll() 这样的方法来支持。其他框架应该都有!

原理很简单就是把二维数组,拼接为sql

将单条Sql如下:

$sql = "INSERT INTO TEST (value) VALUES ('helloworld1')";

$sql = "INSERT INTO TEST (value) VALUES ('helloworld2')";

拼接为:

$sql = "INSERT INTO TEST (value) VALUES ('helloworld1'), ('helloworld2')";

很明显批量插入速度要快很多。

还是20w数据,MyISAM 下批量查询速度多快?(已有数据会影响插入效率,已清空 myisam表)

还是上代码

比起之前的167秒的单条插入速度快了 5 倍。内存消耗增加1.5倍左右,内存换时间,可取~~~

InnoDB 会是什么速度呢?

执行结果:

这次终于执行完了,而且速度很快。和之前的两个小时比,效率也提升了N倍。

修改配置参数提升性能:

InnoDB 引擎 真的这么慢?这么low?

答案显然是:NO

InnoDB写入之所以这么慢的一个原因是:innodb_flush_log_at_trx_commit

参数配置的问题

如下图默认的值:

关于值请查阅mysql文档:

当innodb_flush_log_at_trx_commit=0时, log buffer将每秒一次地写入log file, 并且log file的flush(刷新 到disk)操作同时进行. 此时, 事务提交是不会主动触发写入磁盘的操作.

当innodb_flush_log_at_trx_commit=1时(默认), 每次事务提交时, MySQL会把log buffer的数据写入log f ile, 并且将log file flush(刷新到disk)中去.

当innodb_flush_log_at_trx_commit=2时, 每次事务提交时, MySQL会把log buffer的数据写入log file, 但 不会主动触发flush(刷新到disk)操作同时进行. 然而, MySQL会每秒执行一次flush(刷新到disk)操作.

把值设置为2,再试一下:

速度又提升了 3倍,和 MyISAM几乎相同。

所以以后说InnoDB写入速度慢,可能是配置问题

还可以优化?

还有什么可以优化?

由于我们使用了 框架的insert_batch,看一下CI源码:

/**

* The "set_insert_batch" function. Allows key/value pairs to be set for batch inserts

*

* @param mixed

* @param string

* @param bool

* @return CI_DB_query_builder

*/

public function set_insert_batch($key, $value = '', $escape = NULL)

{

$key = $this->_object_to_array_batch($key);

if ( ! is_array($key))

{

$key = array($key => $value);

}

is_bool($escape) OR $escape = $this->_protect_identifiers;

$keys = array_keys($this->_object_to_array(current($key)));

sort($keys);

foreach ($key as $row)

{

$row = $this->_object_to_array($row);

if (count(array_diff($keys, array_keys($row))) > 0 OR count(array_diff(array_keys($row), $keys)) > 0)

{

// batch function above returns an error on an empty array

$this->qb_set[] = array();

return;

}

ksort($row); // puts $row in the same order as our keys

if ($escape !== FALSE)

{

$clean = array();

foreach ($row as $value)

{

$clean[] = $this->escape($value);

}

$row = $clean;

}

$this->qb_set[] = '('.implode(',', $row).')';

}

foreach ($keys as $k)

{

$this->qb_keys[] = $this->protect_identifiers($k, FALSE, $escape);

}

return $this;

}

我们传入的数据,方法会再循环,判断。所以建议语句自己拼接

代码修改如下:

执行结果:

20W条数据 InnoDB 循环1.6秒,插入1.2秒。速度是不是很爽了。。

拼接语句可能会报错

设置一下

max_allowed_packet = 500M

允许mysql 接受数据包大小。

标签: #mysql写入数据一刷新就没了