整体思路
第一步是结合项目背景 , 调研比较优化的解决方案 。文件上传失败是老生常谈的问题,常用方案是将一个大文件切片成多个小文件,并行请求接口进行上传 , 所有请求得到响应后 , 在服务器端合并所有的分片文件 。当分片上传失败,可以在重新上传时进行判断 , 只上传上次失败的部分,减少用户的等待时间,缓解服务器压力 。这就是分片上传文件 。
大文件上传
那么如何实现大文件分片上传呢?
流程图如下:
分为以下步骤实现:
1. 文件 MD5 加密
MD5 是文件的唯一标识,可以利用文件的 MD5 查询文件的上传状态 。
根据文件的修改时间、文件名称、最后修改时间等信息,通过 spark-md5 生成文件的 MD5 。需要注意的是 , 大规格文件需要分片读取文件,将读取的文件内容添加到 spark-md5 的 hash 计算中,直到文件读取完毕 , 最后返回最终的 hash 码到 callback 回调函数里面 。这里可以根据需要添加文件读取的进度条 。
实现方法如下:
// 修改时间+文件名称+最后修改时间–>MD5md5File (file) {return new Promise((resolve, reject) => {let blobSlice =File.prototype.slice ||File.prototype.mozSlice ||File.prototype.webkitSlicelet chunkSize = file.size / 100let chunks = 100let currentChunk = 0let spark = new SparkMD5.ArrayBuffer()let fileReader = new FileReader()fileReader.onload = function (e) {console.log(&
// 校验文件的MD5checkFileMD5 (file, fileName, fileMd5Value, onError) {const fileSize = file.sizeconst { chunkSize, uploadProgress } = thisthis.chunks = Math.ceil(fileSize / chunkSize)return new Promise(async (resolve, reject) => {const params = {fileName: fileName,fileMd5Value: fileMd5Value,}const { ok, data } = await services.checkFile(params)if (ok) {this.hasUploaded = data.chunkList.lengthuploadProgress(file)resolve(data)} else {reject(ok)onError()}})}3. 文件分片
文件上传优化的核心就是文件分片 , Blob 对象中的 slice 方法可以对文件进行切割,File 对象是继承 Blob 对象的,因此 File 对象也有 slice 方法 。
定义每一个分片文件的大小变量为 chunkSize , 通过文件大小 FileSize 和分片大小 chunkSize 得到分片数量 chunks , 使用 for 循环和 file.slice() 方法对文件进行分片,序号为 0 – n,和已上传的切片列表做比对,得到所有未上传的分片,push 到请求列表 requestList 。
async checkAndUploadChunk (file, fileMd5Value, chunkList) {let { chunks, upload } = thisconst requestList = []for (let i = 0; i < chunks; i++) {let exit = chunkList.indexOf(i + &
后台接收到上传请求后 , 首先查看名称为文件 MD5 的文件夹是否存在,不存在则创建文件夹,然后通过 fs-extra 的 rename 方法,将切片从临时路径移动切片文件夹中,结果如下:
当全部分片上传成功,通知服务端进行合并,当有一个分片上传失败时,提示“上传失败” 。在重新上传时,通过文件 MD5 得到文件的上传状态,当服务器已经有该 MD5 对应的切片时,代表该切片已经上传过,无需再次上传,当服务器找不到该 MD5 对应的切片时,代表该切片需要上传 , 用户只需上传这部分切片 , 就可以完整上传整个文件 , 这就是文件的断点续传 。
// 上传chunkupload (i, fileMd5Value, file) {const { uploadProgress, chunks } = thisreturn new Promise((resolve, reject) => {let { chunkSize } = this// 构造一个表单 , FormData是HTML5新增的let end =(i + 1) * chunkSize >= file.size ? file.size : (i + 1) * chunkSizelet form = new FormData()form.append(&
// 上传chunkupload (i, fileMd5Value, file) {const { uploadProgress, chunks } = thisreturn new Promise((resolve, reject) => {let { chunkSize } = this// 构造一个表单,FormData是HTML5新增的let end =(i + 1) * chunkSize >= file.size ? file.size : (i + 1) * chunkSizelet form = new FormData()form.append(&
原生 Javascript 的 XMLHttpRequest 有提供 progress 事件,这个事件会返回文件已上传的大小和总大小 。项目使用 axios 对 ajax 进行封装,可以在 config 中增加 onUploadProgress 方法,监听文件上传进度 。
const config = {onUploadProgress: progressEvent => {var complete = (progressEvent.loaded / progressEvent.total * 100 | 0) + &
Node 端代码:
// 合并文件exports.merge = {validate: {query: {fileName: Joi.string().trim().required().description(&
Blob.slice 将文件切片 , 并发上传多个切片,所有切片上传后告知服务器合并,实现大文件分片上传;原生 XMLHttpRequest 的 onprogress 对切片上传进度的监听,实时获取文件上传进度;spark-md5 根据文件内容算出文件 MD5 , 得到文件唯一标识,与文件上传状态绑定;分片上传前通过文件 MD5 查询已上传切片列表,上传时只上传未上传过的切片,实现断点续传小福利:
整理了几百本各类技术电子书和视频资料 ,嘘~,免费 送 ,
【G 程序员提高篇:大规格文件是如何做分片优化的?】以上就是朝夕生活(www.30zx.com)关于“程序员提高篇:大规格文件(G)是如何做分片优化的?”的详细内容,希望对大家有所帮助!
猜你喜欢
- 老司机:汽车减震器的更换周期你清楚吗?不知道就要“受罪”了
- 苹果官网再度崩溃:这个功能影响巨大
- 某微看网页乱码?这里给你支招
- 学会这招,让你的微信网页不再「乱码」| 有轻功
- 门套线是什么?木门门套|门扇|门套线超详细安装教程
- 我的世界:100只僵尸的搏杀!还剩最后“一滴血”,你该怎么办?
- 大师解梦:你梦到恐怖的事情是因为什么你知道吗! 一招教你摆脱
- 《骑马与砍杀2 霸主》评测:我能守着这游戏直到老死
- 干货来啦!木门门套、门套线、门扇这样安装就可以了
