|
Программирование PHP, Perl, HTML, XHTML, CSS, JavaScript, MySQL и другие языки кодирования. |
|
Опции темы |
Сегодня | |||||
|
09.04.2017, 13:29 | #11 | |||
Реноме:
1556
|
Здесь я результат запроса сохраняю в переменную.
$content=file_get_contents("https://****/$i/***/");
добавлено через 39 минут Мне нужно получить данные с https: $host='адрес сайта без $path='чпу' $headers="GET $path HTTPS/1.1\r\n"; - добавляю S $content=$sock; результат пустой ответ добавлено через 50 минут PHP код:
В указанном примере пропусти S в HTTP , - у меня в примере S стоит добавлено через 54 минуты так тоже ответ пустой PHP код:
__________________
Последний раз редактировалось Port_Artur; 09.04.2017 в 14:24. Причина: Добавлено сообщение |
|||
09.04.2017, 16:19 | #12 | |||
Реноме:
6339
|
Port_Artur, судя по последним вопросам, вы совсем не поняли мою идею, как создавать параллельные запросы
Предложенный мной скрипт не качает информацию из сети, это делает ваш скрипт. А мой скрипт просто запускает N-ое раз ваш скрипт и эти N запушенных ваших скриптов параллельно качают, что вам надо. |
|||
09.04.2017, 16:46 | #13 | |||
Реноме:
1556
|
Теперь-то я понял. Думаю вот, как мне это реализовать, чтобы результаты потом использовать в скрипте.
добавлено через 6 минут Дело в том, что время критично, - поэтому лишние траты на запись в файл, потом его чтение, могут невилировать выигрыш по времени. добавлено через 2 часа 28 минут Максимальное время одного запроса 0,46 секунды, вот если бы сократить хотя бы до 0,5-0,6 сек. Было бы супер!
__________________
Последний раз редактировалось Port_Artur; 09.04.2017 в 19:15. Причина: Добавлено сообщение |
|||
09.04.2017, 21:02 | #14 | |||
Реноме:
6339
|
Так в файлы пишутся результаты, а запросы то вы быстро отправите и получите. Плюс vps на SSD дисках пошустрее будут. Плюс еще можно ваш скрипт пробовать ускорить. Например, когда CURL хочет открыть какую-то страницу, он предварительно обращается к DNS чтобы узнать ip. А вы можете этот ip заранее определить, вбить в настройки соединения и в итоге без обращения к DNS получится чуть быстрее.
Еще в ваш скрипт можно попробовать всунуть функцию времени ожидания: например потоки запускаем заранее (за минуту или несколько секунд до часа Х), далее они просто ждут уже активированные в памяти сервера, а в нужную миллисекунду фигачат. Так вообще сверхскорость можно получить. Можно и другие способы ускорения придумать. |
|||
09.04.2017, 21:43 | #15 | |||
Реноме:
1556
|
Десятки посетителей сайтов одновременно, страниц сотни таких запросов в 10 раз больше. Не понимаю как хранить столько файлов, под каким именем, как разбирать потом нужные?
__________________
|
|||
10.04.2017, 00:47 | #18 | |||
Реноме:
1556
|
Задача.
Нужно все 10 file_get_contents выполнить одновременно, сократив время в 10 раз. речь об общем времени
__________________
|
|||
21.05.2017, 21:56 | #19 | |||
|
||||
Реклама | |
Здесь присутствуют: 1 (пользователей: 0 , гостей: 1) | |
Опции темы | |
|
|