Curl 或 file_get_contents 用于下载包含 css、图像和 JS 文件的整个网页
我需要的是获取某些网页 URL 的源代码:
$url = 'http://www.kupime.com/';
$data = file_get_contents($url);
在该字符串之后,我需要将其另存为 HTML 文件在我的服务器文件夹中,之后我需要保存页面中的其他元素(图像、CSS 和 JS 文件),并且放在服务器文件夹上...
毕竟,我需要在我的域上显示此页面,看起来像 iframe,但带有我需要执行其他操作的源代码。
怎么做!使用 php file_get_contents 或使用一些 cUrl 函数或...建议您!
What I'm need is to get source code of some webpage URL:
$url = 'http://www.kupime.com/';
$data = file_get_contents($url);
after that string I need to save as HTML file in my server folder and after that I need to save other elements od pages (images,css and JS files) and also put on server folder...
After that all, I need to show this page as on my domain to looks like iframe but with source code which I need for other actions.
HOW TO DO THAT! with php file_get_contents or with some cUrl functions or ... suggest you!
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
您需要解析所有网站网址,src= href= 等等等,这确实很难做到。尝试一下 hidemyass.com ,看看没有任何网站会因为 js 而正常工作。您正在寻找的脚本称为 WebProxy。
You need to parse all web site urls, src= href= etc etc etc. it's really hard to do that. Try out hidemyass.com , and look that not any web site will work correctly because of js. The script you are looking for is called WebProxy.