使用 C# 在 Asp.Net 网站中提取和复制性能差异
我有近 100 个网站会在某种情况下更新,我有一个 winzip 存档,其中包含替换这些网站的文件。我想知道
- 我可以将该文件提取到一个文件夹中,然后将它们复制到所有 100 个网站文件夹中
- 我可以将存档直接提取到 100 个网站文件夹中,
其中一个性能更好且不易出错。
I have almost 100 website that will update in a condition, I have a winzip archive that contains the files that replaces those websites. I want to know that
- I can extract that files in a folder and then copy them to all 100 websites folders
- I can extract the archive directly to 100 websites folders
which one is better in performance and less prone to errors.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
可能更好的解决方案(因为您的源代码在每种情况下都是相同的):
将源代码放在系统上的一个位置,并将所有不同的网站指向同一个物理文件夹。
Possibly better solution (seeing as your source code is the same in each case):
Have your source code in one place on the system and point all the different web sites to the same physical folder.