多个 https 请求..如何?

发布于 2024-10-09 21:08:19 字数 234 浏览 1 评论 0原文

我有一个 https API URL,我需要运行多次,并尽快检查域的状态。

如何同时运行相同的 URL 多次,同时接收输出中的响应,并关闭已完成的连接,同时保持尽可能低的内存资源?

有人告诉我要在另一种语言(不是 PHP)中使用线程?

任何例子或伸出援手将不胜感激!谢谢

I have an https API URL which I need to run multiple times, and as quickly as possible to check the status of a domain.

How can I run the same URL multiple times concurrently, while receiving the response in output, and closing the finished connection, whilst also keeping memory resources as low as possible?

I was told to use threading in another language (not PHP)?

Any examples or lending hand would be greatly appreciated! Thanks

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

无可置疑 2024-10-16 21:08:19

刚刚快速谷歌了一下,得到了这个 ,我相信这会解决您的问题 - 这句话总结了这一点:

使用 cURL 的curl_multi* 系列
您可以提出这些请求的功能
同时地。这样你的应用程序就是
与最慢的请求一样慢,
反对所有请求的总和。

Just did a quick google and came up with this, I believe this will solve your problem - this quote sums it up:

Using the curl_multi* family of cURL
functions you can make those requests
simultaneously. This way your app is
as slow as the slowest request, as
opposed to the sum of all requests.

神回复 2024-10-16 21:08:19

m.edmondson 比我快 :D

一个可能有用的信息:当同时使用curl 执行大量请求时,您可能会出现时间滞后,因为curl DNS 解析器不能同时工作。

作为另一种想法,您可以编写一个 php cli 脚本,该脚本分叉单独工作的孩子,或者只使用 bash 和 bash 。 lynx(在 Linux 上)。

m.edmondson was faster than me :D

An maybe helpful information: When doing a lot requests with curl simultaniously, you'll probably get a time lag bcs the curl DNS resolver doesn't work concurrently.

As an alternative idea you could write an php cli script which forks childs who work seperately, or just use bash & lynx (on linux).

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文