加载流程是这样的,pdf文件在ftp服务器上,web服务器要先去ftp服务器下载pdf,然后在返回文件给浏览器,相当于要pdf要在网络中传输2次,就是下载2次了。
加载流程
ftp服务器
导致的问题就是加载时间很长,要10多秒才能显示,很难忍受,
问题
请问大神们有没有这方面的经验和解决方案可以传授下,pdf基本上都是10多M的大小
目前能想到的解决方案,是把pdf下载服务器上,转换成单页的jpg,先返回第一页的jpg,然后其他的转换任务还在线程中异步执行,这样应该可以将请求时间缩短一半。
目前能想到的解决方案
提供一个思路楼主参考文件切割成多份,多线程下载,完成后在本地组合生成文件。不过借用第三方,如七牛,这种已经优化的专业的平台应该更省事?睡觉噜,晚安
实现代理机制,在服务器端将FTP的下载流重定向到浏览器的响应流中
我感觉不是ftp服务器的问题,内部网络一般都是非常快的,很少成为瓶颈
你可以试试,在你的web服务器上放一个pdf,然后直接访问这个pdf看看速度如何
ftp协议可以直接访问下载的
试试把pdf直接放到web机器,再访问web机器看速度提升了多少,ftp和web机器在一个内网吗?
将下载分发用云存储平台去,如cdn提供商、阿里云等
如果web机器访问速度可以,那可以使用rsync将ftp的同步到web机器来,如果项目小的话
用户体验:做个加载进度条网络优化:上面很多都说了,CDN加速(机密文件不适合)文件优化: pdf做成可单页加载的,不好处理可尝试分割成多个图片
这种问题,一般1,2两不就够了
我们的做法是在后端写个服务,先把上传的pdf文档,利用这个接口存储成多个svg文件,然后把这些svg文件提交到阿里云的oss或者是七牛的存储服务中,这个转换和存储的过程大概在半分钟左右,访问的时候,可以用懒加载方式,浏览效率和用户体验都非常不错。
我的解决方案是tornado+requests流传输http://www.zwy.win/?p=132
新的pdf功能可以做成 类似异步请求的效果 本身文件很小具体需求会请求网络
为什么每次请求 都要重新连FTP下载?建议第一次下载后把文件存在本地,如果PDF会经常改动,那就在第二次下载之前判断一下文件大小和修改时间,有改动再重新下载。