找到约 10000 条结果
  • PHP一个随机码,根据ID插入数据库,然后判断假如数据库里已经存在这个随机码再随机一个出来插入数据库
    2016-09-18
    3
  • 问题说明:目前有一个文本格式的json数据,里面数据量约15亿,每一行数据的格式都是固定的,插入前先要将json反序列化。运行环境为:windows server 2016,postgresql 10,Xeon E5506@2.13GHz,16G ddr3 1333,硬盘io上限约120MB/s,服务器板载RAID无法使用,用windows的带区卷将两块硬盘组成一个卷,极限io也就170MB/s...
    2017-12-08
    1
  • 发现一个问题 开始事务->插入数据给A库的A表->插入数据给B库的A表,然后进行会滚,结果,回滚失败。
    2017-10-27
    1
    ✓ 已解决
  • 测试一下时间就可以了,机器配置不同,时间不同! 其实导入大量数据有这么几种方式 1、LOAD的方式 {代码...} 2、sql语句 insert 一次可以插入多条语句,一次4W记录太多 总结: 推荐使用InnoDB engine 说明 Centos6下/4核8G/mysql5.5 ,TPS 1500左右 、写入速度平均为6000 write/s 大量的并发写入,任何的单机都不可能处理...
    2015-12-26
  • PHP生成优惠券码,然后把优惠券信息插入到数据库,如果一次要生成一万条或者更多数据要怎么插入数据库?
    2019-04-12
    1
    ✓ 已解决
  • 把100万数据分成多份,每个线程处理一份数据,而且插入数据一定要批量插入,数据库有索引的话最好先关掉,所有数据全部插入后统一做索引,如果是Oracle的话可以用SQL Loader或者其他类似的工具直接插入,避免使用Hibernate之类的方式插入。
    2016-05-04
  • {代码...} 核心线程1 最大线程1000 使用CallerRunsPolicy这个代码是redis stream的接收的一次性插入了大量数据 但是并没有出现并发处理的情况这个是为什么?我理解错误了还是使用错误了?
    2024-12-18
    3
    ✓ 已解决
  • 我的一个文档中内嵌了一个数组字段follow,结果在用mongoose往里面插入一条数据时,结果插入了两条这个是代码: 我希望只向数组中添加一条数据,但是结果中却出现了两条数据: 红线的地方就是多插入的数据这怎么解决啊?求知道的大佬解答
    2019-10-09
  • 插入第二条数据就会报错:(数据: { enid: 'ddfffff', name: 'Ddfffff', index: 7, pid: null, intro: 'aaaaaaaaaaaaaaaaa' })
    2024-04-08
    1
  • mysql_query("BEGIN"); $ck_id = M('ods')->add($public); foreach ($datas as $k => $val) { {代码...} } 由于插入到odo这个表的数据我是用 foreach循环插入多条数据,怎么判断这些数据全部插入成功了呢?要是有一条没有成功,就做回滚处理。 if($ck_id && $saveData){ {代码...} mysql_query("END");如...
    2017-02-04
    4
    ✓ 已解决
  • 我两种方式链接数据库 结果远程的数据库可以在插入时即使没有数据的字段也成功了 本地的却报字段不能为空不让插入
    2016-12-03
    5
    ✓ 已解决
  • 如何做到当mysql的某表插入数据时,让php接收下。 例如: test 表 当用户insert 一条数据到test表,怎么才能很快知道插入了新数据呢,然后反馈到php上面?
    2016-05-20
    3
  • MySQL 批量操作,一次插入多少行数据效率最高?
    我们在操作大型数据表或者日志文件的时候经常会需要写入数据到数据库,那么最合适的方案就是数据库的批量插入。只是我们在执行批量操作的时候,一次插入多少数据才合适呢?
    2022-10-19
  • [RocksDB剖析系列] Log-structured merge-tree
    B+树最大的性能问题是会产生大量的随机IO,随着新数据的插入,叶子节点会慢慢分裂,逻辑上连续的叶子节点在物理上往往不连续,甚至分离的很远,但做范围查询时,会产生大量随机读IO。对于大量的随机写也一样,新插入的数据在磁盘上的位置可能相隔很远,会产生大量的随机写IO。
    2021-12-09
  • 自增长的id适用于单机系统,因为自增长id很难处理分布式存储的数据表,尤其是需要合并表格的情况下;并且自增长id受限于数据量,int本身的长度并不适用于大数据量。用varchar的通常都是分布式系统生成的一套UUID为主键的方案,用UUID当主键适合大量数据中的插入和更新操作,尤其是在高并发和分布式环境下,也适合跨服务...
    2019-05-30
  • MySQL 亿级数据迁移之迁移策略
    步骤子项目提供数据同步接口,可根据情况选择同步的线程数以及批量插入的数据量。具体步骤:全量迁移:搬迁当前库中所有的历史数据(新项目提供数据迁移的接口,可批量迁移数据,该过程会搬掉库中大部分数据)增量迁移:记录全量迁移开始的时间,搬迁全量迁移过程中变更了的数据数据比对:通过接口比对 Cassandra 和 MyS...
    2021-08-13
  • 我初始化了一个1000w的分片集合,再对这个集合插入10w的数据,在插入的过程中速度特别不稳定,甚至1条数据插入执行了超过1s 请问这是什么原因呢?
    2016-04-26
    2