发布于 1970-01-01 08:00
  • 7 个回答
    • 试试这个思路可以么? http://phpedia.net/1v2knpye

      2022-12-01 18:08 回答
      1. 内存虚拟成一块硬盘,然后写入你的内存硬盘
      2. 拿到一个数据就写入file,而不是拿到所有数据才写人
      2022-12-01 18:08 回答
      • 如果xml结构不复杂的话,用字符串拼接 往往比使用xml库来导出xml数据要快很多。
      • 换别的语言试试,php对文件I/O的操作是很慢的。
      2022-12-01 18:08 回答
    • 用dom就必须把所有的数据全部放到内存里面

      我觉得直接用字符串拼xml会很快,而且拼好一块就append到文件里面,应该会快很多

      2022-12-01 18:08 回答
    • 为何不考虑json格式呢?解析存储传输都比xml格式的有优势。
      而且php支持json和xml格式的互相转换。
      但100w+的数据没有测试过转换的耗费多少。

      2022-12-01 18:08 回答
    • 这个需求中,写入一个XML文件并不是必须的。

      值得考虑用流水线式的模型解决问题。上传数据不需要非得等XML全生成完了才开始,而是只需生成一点XML就上传一点。

      gzip也是一个纯粹流式的压缩(进来一点就出去一点),所以gzip也可以简单插入到这个操作流之中。


      无论如何提交,100W都很考验网络连接的质量和对方API平台的处理能力,请首先尽可能找到分批提交的办法。

      2022-12-01 18:08 回答
    • 不是有xmlreader 和 xmlwriter 吗?可以不断读取Xml文档中的声明,节点,且不会一次加载.

      2022-12-01 18:08 回答
    撰写答案
    今天,你开发时遇到什么问题呢?
    立即提问
    PHP1.CN | 中国最专业的PHP中文社区 | PNG素材下载 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
    Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有