lists.openwall.net   lists  /  announce  owl-users  owl-dev  john-users  john-dev  passwdqc-users  yescrypt  popa3d-users  /  oss-security  kernel-hardening  musl  sabotage  tlsify  passwords  /  crypt-dev  xvendor  /  Bugtraq  Full-Disclosure  linux-kernel  linux-netdev  linux-ext4  linux-hardening  linux-cve-announce  PHC 
Open Source and information security mailing list archives
 
Hash Suite: Windows password security audit tool. GUI, reports in PDF.
[<prev] [next>] [day] [month] [year] [list]
Message-Id: <952771497094418@web20m.yandex.ru>
Date:   Sat, 10 Jun 2017 14:33:38 +0300
From:   Алексей Болдырев 
        <ne-vlezay80@...dex.ru>
To:     netdev <netdev@...r.kernel.org>
Subject: veth: проблемы со скоростью

Короче, имеем ядро 4.11.4. При передаче данных через veth, мы получаем скорость примерно такую:
root@...tainers:~# iperf3 -c 10.194.1.3
Connecting to host 10.194.1.3, port 5201
[  4] local 10.194.1.2 port 55640 connected to 10.194.1.3 port 5201
[ ID] Interval           Transfer     Bandwidth       Retr  Cwnd
[  4]   0.00-1.00   sec   678 MBytes  5.68 Gbits/sec    0   1.10 MBytes       
[  4]   1.00-2.00   sec   684 MBytes  5.73 Gbits/sec    0   1.60 MBytes       
[  4]   2.00-3.00   sec   684 MBytes  5.74 Gbits/sec    0   1.60 MBytes       
[  4]   3.00-4.00   sec   686 MBytes  5.75 Gbits/sec    0   1.60 MBytes       
[  4]   4.00-5.00   sec   685 MBytes  5.75 Gbits/sec    0   1.60 MBytes       
[  4]   5.00-6.00   sec   684 MBytes  5.73 Gbits/sec    0   1.60 MBytes       
[  4]   6.00-7.00   sec   684 MBytes  5.74 Gbits/sec    0   1.60 MBytes       
[  4]   7.00-8.00   sec   684 MBytes  5.74 Gbits/sec    0   1.60 MBytes       
[  4]   8.00-9.00   sec   686 MBytes  5.75 Gbits/sec    0   1.60 MBytes       
[  4]   9.00-10.00  sec   685 MBytes  5.75 Gbits/sec    0   1.60 MBytes       
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bandwidth       Retr
[  4]   0.00-10.00  sec  6.68 GBytes  5.74 Gbits/sec    0             sender
[  4]   0.00-10.00  sec  6.68 GBytes  5.74 Gbits/sec                  receiver

iperf Done.

Собственно, в чём вопрос:
Какие изменения были внесины в драйвер veth? На сколько я понимаю, маленькая скорость возникает потому, что включенна проверка от плохих пакетов, которые были в этом баге: https://github.com/kubernetes/kubernetes/issues/18898

Дело в том, что veth используется также для создания псевдо туннелей, например если надо покключить в l2 режиме устройства которые не поддерживают больших пакетов к сети, в которой есть jumbo frame. 

Дело в том, что эту проверку невозможно отключить.

Powered by blists - more mailing lists

Powered by Openwall GNU/*/Linux Powered by OpenVZ