sqlite大量数据插入的优化
2014-01-14 16:52
288 查看
最近项目中实现一个日志系统需要用到sqlite,将所有的日志文件存放到本地后,由集群统一的日志管理中心收集处理.
之前是将日志记录到文件中,但提取不太方便,所以最后决定记录到sqlite中.由于要支持比较大的并发,所以在架构以及sqlite语句的处理方面都进行了比较大的优化,这里主要是针对大量数据记录到sqlite中的方法,语言是python.
大数据会首先记入到一个内存队列中,异步写进数据库.
写入的优化,主要如下:
insert_data = []
for temp in self.module[tmp]:
temp = self._entry_init(temp)
data = (temp.owner, temp.log_type, temp.log_mesg, temp.filename, temp.line, temp.time, temp.host)
insert_data.append(data)
self.module[tmp] = []
global_info.LOG_CONNS[tmp].insert_many(
"INSERT INTO services_log (owner, type, log_msg, filename, line, time, host)\
values(?,?,?,?,?,?,?)" , insert_data)
global_info.LOG_CONNS[tmp].commit()
之前是将日志记录到文件中,但提取不太方便,所以最后决定记录到sqlite中.由于要支持比较大的并发,所以在架构以及sqlite语句的处理方面都进行了比较大的优化,这里主要是针对大量数据记录到sqlite中的方法,语言是python.
大数据会首先记入到一个内存队列中,异步写进数据库.
写入的优化,主要如下:
insert_data = []
for temp in self.module[tmp]:
temp = self._entry_init(temp)
data = (temp.owner, temp.log_type, temp.log_mesg, temp.filename, temp.line, temp.time, temp.host)
insert_data.append(data)
self.module[tmp] = []
global_info.LOG_CONNS[tmp].insert_many(
"INSERT INTO services_log (owner, type, log_msg, filename, line, time, host)\
values(?,?,?,?,?,?,?)" , insert_data)
global_info.LOG_CONNS[tmp].commit()
相关文章推荐
- Sqlite3插入大量数据性能优化
- Android:SQLite插入大量数据的效率优化
- Sqlite3插入大量数据性能优化
- sqlite大量数据插入优化总结
- Mysql大量插入数据时SQL语句的优化
- 【android】 批量插入数据到sqlite的性能优化
- Python使用SQLite插入大量数据耗时问题
- 权限迁移_涉及到大量数据插入的优化手段
- 优化SQLite3数据库插入10000条数据
- iOS的sqlite3大量数据插入数据库操作
- 用Java向数据库中插入大量数据时的优化
- Mysql大量插入数据时SQL语句的优化
- Oracle优化:大量数据插入或更新
- jdbc插入大量数据时优化处理-最近遇到的解决我一大难题
- 数据库SQLite 数据大量存储 和快速读取 链表查询的优化 使用gosn
- Android开发之SQLite插入数据优化
- Android批量插入数据到sqlite的性能优化
- 用Java向数据库中插入大量数据时的优化
- 【Java/JDBC.ORM】 jdbc插入大量数据时优化处理
- 用JDBC向数据库中插入大量数据时的优化