Netgate Discussion Forum
    • Categories
    • Recent
    • Tags
    • Popular
    • Users
    • Search
    • Register
    • Login

    PRIQ. бьем по торрентам

    Scheduled Pinned Locked Moved Russian
    13 Posts 3 Posters 6.0k Views
    Loading More Posts
    • Oldest to Newest
    • Newest to Oldest
    • Most Votes
    Reply
    • Reply as topic
    Log in to reply
    This topic has been deleted. Only users with topic management privileges can see it.
    • werterW
      werter
      last edited by

      @goliy:

      А в hfsc насколько  знаю приоритет - не учитывается…

      Хм, как это не учитывается приоритет ? http://dreamcatcher.ru/2009/11/30/Использование-hierarchical-fair-service-curve-hfsc-в-openbsd/ .

      Диапазон приоритетов для HFSC и cbq может принимать значения от 0 до 7, а для priq диапазон равен от 0 до 15. Приоритет 0 является самым низким приоритетом и назначается наименее важным данным. Если приоритет на задан, то в качестве значения по умолчанию используется 1 приоритет. Очереди типа Priq с более высоким приоритетом всегда обслуживаются первыми. Cbq и очереди типа HFSC с более высоким приоритетом обслуживаются первыми в случае, если канал выбран полностью, а полоса пропускания «realtime» также исчерпана.

      1 Reply Last reply Reply Quote 0
      • G
        goliy
        last edited by

        ну значит я знал не правильно -) Но сильно проблему это не меняет. Неужели таки на hfsc переезжать и больше нет предложений?

        2.0.2-RELEASE (i386)
        Intel(R) Atom(TM) CPU 330 @ 1.60GHz
        eth: Intel 82574L
        DOM sata, 1Gb
        over 150 users

        1 Reply Last reply Reply Quote 0
        • G
          goliy
          last edited by

          Таки все-таки стандартные правила шейпер-визарда надо хорошо осмыслять =)
          Поставив галочку "Метить весь некатегоризированный траффик как p2p я тем самым дал согласие на то, что стандартной трубкой будет трубка для торрентов. Так как я использую Сквид+СквидГвард, Весь прокси-траффик идет, не зависимо от правил фаервола, в дефолтную трубку. Чтобы этого не допускать, я изначально менял дефолтную трубку с qp2p на qOthersDefault.
          НО! я не предположил, что этот дефот и был основным что сделала функция CathAllP2P. Все решилось добавлением 2х первых правил во floating rules, глосящие "Ваще весь трафик пихаем в qp2p", а второе правило- "на весь udp трафик устанавливаем ограничение на established connections per host в 200" или около того штук. Все, торренты усмеренные и тусят в сторонке.
          Может кому будет интересно

          2.0.2-RELEASE (i386)
          Intel(R) Atom(TM) CPU 330 @ 1.60GHz
          eth: Intel 82574L
          DOM sata, 1Gb
          over 150 users

          1 Reply Last reply Reply Quote 0
          • T
            Tamriel
            last edited by

            отпиши подроднее :)
            мне интересно !
            так как PRIQ  болешую полосу может дать! кстати как у тя с ping-ами в играх и вообще ?
            спс

            AMD Athlon™ XP 1700+
            384MB Ram
            NanoBSD Boot Slice pfsense0 / da0s1
            Platform nanobsd (512mb)
            Version 2.0-RELEASE (i386)
            built on Wed Sep 14 09:08:10 EDT 2011

            1 Reply Last reply Reply Quote 0
            • werterW
              werter
              last edited by

              Хм.. У меня с такими настройками в шейпере и во флоатинг торренты ВСЕГДА уступают трафик очередям с более высоким приоритетом независмо от кол-во торрентоводов :

              Где qOthersLow - трубка для всего остального трафика, в том числе и для p2p.

              [2.0-RELEASE][root@pfsense2.localdomain]/root(1): pfctl -vsq
              queue root_pppoe1 on pppoe1 bandwidth 512Kb priority 0 {qACK, qDefault, qOthersH            igh, qOthersLow}
                [ pkts:          0  bytes:          0  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/ 50 ]
              queue  qACK on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn linkshare 97.28Kb              )
                [ pkts:      5623  bytes:    231875  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/500 ]
              queue  qDefault on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn default links            hare 46.08Kb )
                [ pkts:      1742  bytes:    638859  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/500 ]
              queue  qOthersHigh on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn linkshare              46.08Kb )
                [ pkts:        641  bytes:      40859  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/500 ]
              queue  qOthersLow on pppoe1 bandwidth 512Kb qlimit 3000 hfsc( red ecn linkshare              1Kb upperlimit 460.80Kb )
                [ pkts:      2598  bytes:    1344157  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/3000 ]
              queue root_em0 on em0 bandwidth 1Gb priority 0 {qInternet}
                [ pkts:          0  bytes:          0  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/ 50 ]
              queue  qInternet on em0 bandwidth 14.68Mb hfsc( red ecn upperlimit 14.68Mb ) {qA            CK, qOthersHigh, qOthersLow, qDefault}
                [ pkts:          0  bytes:          0  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/ 50 ]
              queue  qACK on em0 bandwidth 14.68Mb qlimit 500 hfsc( red ecn linkshare 2.79Mb              )
                [ pkts:      2702  bytes:    290403  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/500 ]
              queue  qOthersHigh on em0 bandwidth 14.68Mb qlimit 500 hfsc( red ecn linkshare              1.32Mb )
                [ pkts:        180  bytes:      37470  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/500 ]
              queue  qOthersLow on em0 bandwidth 14.68Mb qlimit 3000 hfsc( red ecn linkshare              1Kb upperlimit 13.21Mb )
                [ pkts:      1891  bytes:    548402  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/3000 ]
              queue  qDefault on em0 bandwidth 14.68Mb qlimit 500 hfsc( red ecn default links            hare 1.32Mb )
                [ pkts:      10525  bytes:  11509590  dropped pkts:      0 bytes:      0 ]
                [ qlength:  0/500 ]

              floating.JPG
              floating.JPG_thumb
              shaper.JPG
              shaper.JPG_thumb

              1 Reply Last reply Reply Quote 0
              • G
                goliy
                last edited by

                @Tamriel:

                отпиши подроднее :)
                мне интересно !
                так как PRIQ  болешую полосу может дать! кстати как у тя с ping-ами в играх и вообще ?
                спс

                Ой не понимаю, про какую бОльшую полосу ты говоришь. Какая была- такая и есть -)
                У меня просто сразу куча перемен - даже и не знаю что хвалить. Сменили систему, жесткий, сетевухи обе и шедулер шейпинга. Стало все сильно лучше. Пинги теперь за 12 часов до я.ру был самый худший 32мс, средний 2.5. Тогда как раньше средний был около 5.5мс.
                В игры не играю. Но если есть проблемы - это означает что просто надо добавить для нее порты в floating rules, с засовыванием ее трафика с игровую трубу

                @werter:

                [2.0-RELEASE][root@pfsense2.localdomain]/root(1): pfctl -vsq
                queue root_pppoe1 on pppoe1 bandwidth 512Kb priority 0 {qACK, qDefault, qOthersH            igh, qOthersLow}
                  [ pkts:          0  bytes:          0  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/ 50 ]
                queue  qACK on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn linkshare 97.28Kb              )
                  [ pkts:      5623  bytes:    231875  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/500 ]
                queue  qDefault on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn default links            hare 46.08Kb )
                  [ pkts:      1742  bytes:    638859  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/500 ]
                queue  qOthersHigh on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn linkshare              46.08Kb )
                  [ pkts:        641  bytes:      40859  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/500 ]
                queue  qOthersLow on pppoe1 bandwidth 512Kb qlimit 3000 hfsc( red ecn linkshare              1Kb upperlimit 460.80Kb )
                  [ pkts:      2598  bytes:    1344157  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/3000 ]
                queue root_em0 on em0 bandwidth 1Gb priority 0 {qInternet}
                  [ pkts:          0  bytes:          0  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/ 50 ]
                queue  qInternet on em0 bandwidth 14.68Mb hfsc( red ecn upperlimit 14.68Mb ) {qA            CK, qOthersHigh, qOthersLow, qDefault}
                  [ pkts:          0  bytes:          0  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/ 50 ]
                queue  qACK on em0 bandwidth 14.68Mb qlimit 500 hfsc( red ecn linkshare 2.79Mb              )
                  [ pkts:      2702  bytes:    290403  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/500 ]
                queue  qOthersHigh on em0 bandwidth 14.68Mb qlimit 500 hfsc( red ecn linkshare              1.32Mb )
                  [ pkts:        180  bytes:      37470  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/500 ]
                queue  qOthersLow on em0 bandwidth 14.68Mb qlimit 3000 hfsc( red ecn linkshare              1Kb upperlimit 13.21Mb )
                  [ pkts:      1891  bytes:    548402  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/3000 ]
                queue  qDefault on em0 bandwidth 14.68Mb qlimit 500 hfsc( red ecn default links            hare 1.32Mb )
                  [ pkts:      10525  bytes:  11509590  dropped pkts:      0 bytes:      0 ]
                  [ qlength:  0/500 ]

                Ой, как все непонятно.
                Зачем торрентам такой апперлимит?
                Зачем установлено одновременно значение для linkshare и bandwidth? Они же дублируют др друга, и меньшее все равно игнорируется.
                Зачем стоят такие большие очереди на все очереди? Как насчет голоса, игр? там же пинг взлетит. Какой в этом смысл?

                2.0.2-RELEASE (i386)
                Intel(R) Atom(TM) CPU 330 @ 1.60GHz
                eth: Intel 82574L
                DOM sata, 1Gb
                over 150 users

                1 Reply Last reply Reply Quote 0
                • werterW
                  werter
                  last edited by

                  Зачем установлено одновременно значение для linkshare и bandwidth? Они же дублируют др друга, и меньшее все равно игнорируется.

                  Ау, а ничего что, Bandwidth стоит 0 (нуль! ) кбит\с . И где тут дублирование ? Мне помнится что кто-то с ником goliy в http://forum.pfsense.org/index.php/topic,41947.0.html писал о "почему Brandwidth 0%" и размер linkshare тоже далеко не нуль у него там был . Не ? Не так ?

                  Зачем стоят такие большие очереди на все очереди? Как насчет голоса, игр? там же пинг взлетит. Какой в этом смысл?

                  Голоса - нет, игр - тоже. Пинг , конечно, не 2.5 как у вас, но и не 20. Где-то около 10 разница. Мне хватает.

                  Если я что-то не так выставил - укажите , как более подкованный в этих вопросах,  где и что. Будет не только мне полезно, поверьте.

                  Заранее благодарен.

                  1 Reply Last reply Reply Quote 0
                  • G
                    goliy
                    last edited by

                    Может я что-то не так понимаю, но что насчет
                    queue  qDefault on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn default linkshare 46.08Kb )
                    queue  qACK on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn linkshare 97.28Kb )
                    queue  qOthersHigh on em0 bandwidth 14.68Mb qlimit 500 hfsc( red ecn linkshare 1.32Mb )

                    вот о чем я
                    Все значения линкшэйр учитываться при таких настройках не будут.
                    Есть смысл указывать либо везде только bandwidth, а линкшэйр в то же время ставить 0,
                    либо линкшэйр, тогда как бандвиф везде будет 0. Это не обезательно, просто понятнее, чтобы не путаться в и без того куче значений

                    в примере по ссылке, показано как раз пример 2:
                    queue qP2PDown bandwidth 0% priority 1 qlimit 2000 hfsc (  red ecn upperlimit 90% linkshare 1Kb )

                    Так же будет не лишним добавить, что в той ситуации, апперлимит был необходим чтобы гарантировать прочий траффик. Но это был проблемный вариант, т.к. были потери на максимальной нагрузке. Как выяснилось, в ЧНН, провайдер давал не полный(или не совсем полный) канал. Таким образом, снижение полосы материнских труб на Точно Гарантированное значение, дало эффект, благодаря которому от апперлимитов стало возможным отказаться.
                    И что касается меня, я пришел к выводу, что оптимальным в моей ситуации было переехать на PRIQ+Dummynet. Благодаря этому решению мы имеем возможность приоритезировать общий пользовательский трафик, гасить торренты, двать приоритет критичному траффику и в то же время (с помощью dummynet'a) предоставлять юзерам фиксированные каналы (aka тарифы)
                    Еще раз, для понимания, уточняю, что hfsc не хуже, просто обладает чрезмерной функциональностью, которая от него в данном случае не требуется.

                    2.0.2-RELEASE (i386)
                    Intel(R) Atom(TM) CPU 330 @ 1.60GHz
                    eth: Intel 82574L
                    DOM sata, 1Gb
                    over 150 users

                    1 Reply Last reply Reply Quote 0
                    • werterW
                      werter
                      last edited by

                      @goliy:

                      Может я что-то не так понимаю, но что насчет
                      queue  qDefault on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn default linkshare 46.08Kb )
                      queue  qACK on pppoe1 bandwidth 512Kb qlimit 500 hfsc( red ecn linkshare 97.28Kb )
                      queue  qOthersHigh on em0 bandwidth 14.68Mb qlimit 500 hfsc( red ecn linkshare 1.32Mb )

                      вот о чем я
                      Все значения линкшэйр учитываться при таких настройках не будут.
                      Есть смысл указывать либо везде только bandwidth, а линкшэйр в то же время ставить 0,
                      либо линкшэйр, тогда как бандвиф везде будет 0. Это не обезательно, просто понятнее, чтобы не путаться в и без того куче значений

                      У вас pf 2.0 ? У меня такой листинг выводится по pfctl -vsq. Хотя везде указан Bandwidth 0! Видимо особенность 2.0

                      1 Reply Last reply Reply Quote 0
                      • G
                        goliy
                        last edited by

                        @werter:

                        У вас pf 2.0 ? У меня такой листинг выводится по pfctl -vsq. Хотя везде указан Bandwidth 0! Видимо особенность 2.0

                        Да, листинг был от 1.2.3. В 2.0 я даже не пробывал использовать hfsc. Возможно тут как-то изменилась логика работы. Я не в курсе.

                        2.0.2-RELEASE (i386)
                        Intel(R) Atom(TM) CPU 330 @ 1.60GHz
                        eth: Intel 82574L
                        DOM sata, 1Gb
                        over 150 users

                        1 Reply Last reply Reply Quote 0
                        • First post
                          Last post
                        Copyright 2025 Rubicon Communications LLC (Netgate). All rights reserved.