Mercurial > hg > nginx-site
view xml/ru/docs/http/ngx_http_upstream_module.xml @ 858:65e75e59a714
Updated versions of external libraries and link to zlib site.
author | Valentin Bartenev <vbart@nginx.com> |
---|---|
date | Mon, 11 Mar 2013 15:39:33 +0400 |
parents | f62328124e5b |
children | e26a18eb5ccd |
line wrap: on
line source
<?xml version="1.0"?> <!-- Copyright (C) Igor Sysoev Copyright (C) Nginx, Inc. --> <!DOCTYPE module SYSTEM "../../../../dtd/module.dtd"> <module name="Модуль ngx_http_upstream_module" link="/ru/docs/http/ngx_http_upstream_module.html" lang="ru" rev="2"> <section id="summary"> <para> Модуль <literal>ngx_http_upstream_module</literal> позволяет описывать группы серверов, которые могут использоваться в директивах <link doc="ngx_http_proxy_module.xml" id="proxy_pass"/>, <link doc="ngx_http_fastcgi_module.xml" id="fastcgi_pass"/> и <link doc="ngx_http_memcached_module.xml" id="memcached_pass"/>. </para> </section> <section id="example" name="Пример конфигурации"> <para> <example> upstream <emphasis>backend</emphasis> { server backend1.example.com weight=5; server backend2.example.com:8080; server unix:/tmp/backend3; server backup1.example.com:8080 backup; server backup2.example.com:8080 backup; } server { location / { proxy_pass http://<emphasis>backend</emphasis>; } } </example> </para> </section> <section id="directives" name="Директивы"> <directive name="upstream"> <syntax block="yes"><value>название</value></syntax> <default/> <context>http</context> <para> Описывает группу серверов. Серверы могут слушать на разных портах. Кроме того, можно одновременно использовать серверы, слушающие на TCP- и UNIX-сокетах. </para> <para> Пример: <example> upstream backend { server backend1.example.com weight=5; server 127.0.0.1:8080 max_fails=3 fail_timeout=30s; server unix:/tmp/backend3; } </example> </para> <para> По умолчанию запросы распределяются по серверам циклически (в режиме round-robin) с учётом весов серверов. В вышеприведённом примере каждые 7 запросов будут распределены так: 5 запросов на <literal>backend1.example.com</literal> и по одному запросу на второй и третий серверы. Если при попытке работы с сервером произошла ошибка, то запрос будет передан следующему серверу, и так до тех пор, пока не будут опробованы все работающие серверы. Если не удастся получить успешный ответ ни от одного из серверов, то клиенту будет возвращён результат работы с последним сервером. </para> </directive> <directive name="server"> <syntax><value>адрес</value> [<value>параметры</value>]</syntax> <default/> <context>upstream</context> <para> Задаёт <value>адрес</value> и другие <value>параметры</value> сервера. Адрес может быть указан в виде доменного имени или IP-адреса, и необязательного порта, или в виде пути UNIX-сокета, который указывается после префикса “<literal>unix:</literal>”. Если порт не указан, используется порт 80. Доменное имя, которому соответствует несколько IP-адресов, задаёт сразу несколько серверов. </para> <para> Могут быть заданы следующие параметры: <list type="tag"> <tag-name><literal>weight</literal>=<value>число</value></tag-name> <tag-desc> задаёт вес сервера, по умолчанию 1. </tag-desc> <tag-name><literal>max_fails</literal>=<value>число</value></tag-name> <tag-desc> задаёт число неудачных попыток работы с сервером в течение времени, заданного параметром <literal>fail_timeout</literal>, после которого он считается неработающим, также в течение времени заданного параметром <literal>fail_timeout</literal>. По умолчанию число попыток устанавливается равным 1. Нулевое значение запрещает учёт попыток. Что считается неудачной попыткой, задаётся директивами <link doc="ngx_http_proxy_module.xml" id="proxy_next_upstream"/>, <link doc="ngx_http_fastcgi_module.xml" id="fastcgi_next_upstream"/> и <link doc="ngx_http_memcached_module.xml" id="memcached_next_upstream"/>. Состояние <literal>http_404</literal> не считается неудачной попыткой. </tag-desc> <tag-name><literal>fail_timeout</literal>=<value>время</value></tag-name> <tag-desc> задаёт <list type="bullet"> <listitem> время, в течение которого должно произойти заданное число неудачных попыток работы с сервером для того, чтобы сервер считался неработающим; </listitem> <listitem> и время, в течение которого сервер будет считаться неработающим. </listitem> </list> По умолчанию таймаут равен 10 секундам. </tag-desc> <tag-name><literal>backup</literal></tag-name> <tag-desc> помечает сервер как запасной сервер. На него будут передаваться запросы в случае, если не работают основные серверы. </tag-desc> <tag-name><literal>down</literal></tag-name> <tag-desc> помечает сервер как постоянно неработающий; используется совместно с директивой <link id="ip_hash"/>. </tag-desc> </list> </para> <para> Пример: <example> upstream backend { server backend1.example.com weight=5; server 127.0.0.1:8080 max_fails=3 fail_timeout=30s; server unix:/tmp/backend3; server backup1.example.com:8080 backup; } </example> </para> </directive> <directive name="ip_hash"> <syntax/> <default/> <context>upstream</context> <para> Задаёт для группы метод балансировки нагрузки, при котором запросы распределяются по серверам на основе IP-адресов клиентов. В качестве ключа для хэширования используются первые три октета IPv4-адреса клиента или IPv6-адрес клиента целиком. Метод гарантирует, что запросы одного и того же клиента будут всегда передаваться на один и тот же сервер. Если же этот сервер будет считаться неработающим, то запросы этого клиента будут передаваться на другой сервер. С большой долей вероятности это также будет один и тот же сервер. <note> IPv6-адреса поддерживаются начиная с версий 1.3.2 и 1.2.2. </note> </para> <para> Если один из серверов нужно убрать на некоторое время, то для сохранения текущего хэширования IP-адресов клиентов этот сервер нужно пометить параметром <literal>down</literal>. </para> <para> Пример: <example> upstream backend { ip_hash; server backend1.example.com; server backend2.example.com; server backend3.example.com <emphasis>down</emphasis>; server backend4.example.com; } </example> </para> <para> <note> До версий 1.3.1 и 1.2.2 для серверов, использующих метод балансировки нагрузки <literal>ip_hash</literal>, нельзя было задать вес. </note> </para> </directive> <directive name="keepalive"> <syntax><value>соединения</value></syntax> <default/> <context>upstream</context> <appeared-in>1.1.4</appeared-in> <para> Задействует кэш соединений для группы серверов. </para> <para> Параметр <value>соединения</value> устанавливает максимальное число неактивных постоянных соединений с серверами группы, которые будут сохраняться в кэше каждого рабочего процесса. При превышении этого числа наиболее давно не используемые соединения закрываются. <note> Следует особо отметить, что директива <literal>keepalive</literal> не ограничивает общее число соединений с серверами группы, которые рабочие процессы nginx могут открыть. Параметр <value>соединения</value> следует устанавливать достаточно консервативно для обеспечения возможности обработки серверами группы новых входящих соединений. </note> </para> <para> Пример конфигурации группы серверов memcached с постоянными соединениями: <example> upstream memcached_backend { server 127.0.0.1:11211; server 10.0.0.2:11211; keepalive 32; } server { ... location /memcached/ { set $memcached_key $uri; memcached_pass memcached_backend; } } </example> </para> <para> Для HTTP директиву <link doc="ngx_http_proxy_module.xml" id="proxy_http_version"/> следует установить в “<literal>1.1</literal>”, а поле заголовка <header>Connection</header> — очистить: <example> upstream http_backend { server 127.0.0.1:8080; keepalive 16; } server { ... location /http/ { proxy_pass http://http_backend; proxy_http_version 1.1; proxy_set_header Connection ""; ... } } </example> </para> <para> <note> Хоть это и не рекомендуется, но также возможно использование постоянных соединений в HTTP/1.0, путём передачи поля заголовка <header>Connection: Keep-Alive</header> серверу группы. </note> </para> <para> Для работы постоянных соединений с FastCGI-серверами потребуется включить директиву <link doc="ngx_http_fastcgi_module.xml" id="fastcgi_keep_conn"/>: <example> upstream fastcgi_backend { server 127.0.0.1:9000; keepalive 8; } server { ... location /fastcgi/ { fastcgi_pass fastcgi_backend; fastcgi_keep_conn on; ... } } </example> </para> <para> <note> При использовании методов балансировки нагрузки, отличных от стандартного round-robin, следует активировать их до директивы <literal>keepalive</literal>. </note> <note> Протоколы SCGI и uwsgi не определяют семантику постоянных соединений. </note> </para> </directive> <directive name="least_conn"> <syntax/> <default/> <context>upstream</context> <appeared-in>1.3.1</appeared-in> <appeared-in>1.2.2</appeared-in> <para> Задаёт для группы метод балансировки нагрузки, при котором запрос передаётся серверу с наименьшим числом активных соединений, с учётом весов серверов. Если подходит сразу несколько серверов, они выбираются циклически (в режиме round-robin) с учётом их весов. </para> </directive> </section> <section id="variables" name="Встроенные переменные"> <para> Модуль <literal>ngx_http_upstream_module</literal> поддерживает следующие встроенные переменные: <list type="tag"> <tag-name><var>$upstream_addr</var></tag-name> <tag-desc> хранит IP-адрес и порт сервера или путь к UNIX-сокету. Если при обработке запроса были сделаны обращения к нескольким серверам, то их адреса разделяются запятой, например, “<literal>192.168.1.1:80, 192.168.1.2:80, unix:/tmp/sock</literal>”. Если произошло внутреннее перенаправление от одной группы серверов на другую с помощью <header>X-Accel-Redirect</header> или <link doc="ngx_http_core_module.xml" id="error_page"/>, то эти группы серверов разделяются двоеточием, например, “<literal>192.168.1.1:80, 192.168.1.2:80, unix:/tmp/sock : 192.168.10.1:80, 192.168.10.2:80</literal>”. </tag-desc> <tag-name><var>$upstream_cache_status</var></tag-name> <tag-desc> хранит статус доступа к кэшу ответов (0.8.3). Статус может быть одним из “<literal>MISS</literal>”, “<literal>BYPASS</literal>”, “<literal>EXPIRED</literal>”, “<literal>STALE</literal>”, “<literal>UPDATING</literal>” или “<literal>HIT</literal>”. </tag-desc> <tag-name><var>$upstream_response_length</var></tag-name> <tag-desc> хранит длины ответов, полученных от серверов группы (0.7.27); длины хранятся в байтах. Несколько ответов разделяются запятыми и двоеточиями, подобно переменной <var>$upstream_addr</var>. </tag-desc> <tag-name><var>$upstream_response_time</var></tag-name> <tag-desc> хранит времена ответов, полученных от серверов группы; времена хранятся в секундах с точностью до миллисекунд. Несколько ответов разделяются запятыми и двоеточиями, подобно переменной <var>$upstream_addr</var>. </tag-desc> <tag-name><var>$upstream_status</var></tag-name> <tag-desc> хранит коды ответов, полученных от серверов группы. Несколько ответов разделяются запятыми и двоеточиями, подобно переменной <var>$upstream_addr</var>. </tag-desc> <tag-name><var>$upstream_http_...</var></tag-name> <tag-desc> хранят поля заголовка ответа сервера. Например, поле заголовка ответа <header>Server</header> доступно в переменной <var>$upstream_http_server</var>. Правила преобразования имён полей заголовка ответа в имена переменных такие же, как для переменных с префиксом “<link doc="ngx_http_core_module.xml" id="variables">$http_</link>”. Необходимо иметь в виду, что запоминаются только поля заголовка ответа последнего сервера. </tag-desc> </list> </para> </section> </module>