Hey,
zu Baustellen im VPN-Backbone habe ich mal die vpnkarte im Syncthing aktualisiert und mit kleinen (roten) ToDo's versehen.
Danke.
Bei mir ähnlich und zwar bei der Datenübertragung von srv12 zu einer direkt mit srv12 verbundenen Node. Folgendes habe ich gemacht:
*Node zu srv12 verbinden *mit "batctl tr" prüfen ob eine direkte Verbindung besteht und die Daten nicht irgendeinen lustigen Umweg durchs Netz nehmen *Daten von srv12 zur Node übertragen mit "wget -O /dev/null http://10.18.8.1/speedtest"
Sehr konstant 3-4Mbit/s. 100Mbit/s wären mit meiner Leitung theoretisch Möglich, faktisch schafft mein Router aber nur ca. 10Mbit/s (Erfahrungswert). Bei einer Übertragung außerhalb von Freifunk komme ich auf ca. 25Mbit/s (mein WLAN ist nicht schneller). Insgesamt müsste eigentlich das doppelte oder dreifache übertragen werden.
Für mich sieht es danach aus, als seien langsame Exits gar nicht das Problem sondern eine der beiden Seiten (oder beide) haben ein Problem mit dem Fastd- VPN. Hier müsste jemand testen ob die Probleme auch mit einem Offloader in der Form auftreten.
Die Exits sind zum Teil auch ein Problem. Auf srv06 mal ausführen: wget --bind-address=10.18.24.1 -O /dev/null http://mirror.de.leaseweb.net/speedtest/100mb.bin
Dann läuft der Traffic über den Tunnel, und liegt gerade zwischen 10 und 20 Mbit, abends dann weniger. Darüber ging jeglicher IPv6-Traffic. Facebook und Google inkl. Youtube nutzen Ipv6, das ist dann entsprechend lahm.
Mit den Routern in Osna am Offloader gibt's aber auch ein Problem. Da kommt auch max. 10 Mbit durch, obwohl auf dem Offloader selbst (131.173.252.88) über fastd zu srv10 und AirVPN 50Mbit durchgehen - selbst zu testen mit wget --bind-address=10.18.80.1 http://mirror.de.leaseweb.net/speedtest/100mb.bin -O /dev/null bzw. ohne --bind-address, um die Ipv6-Konnektivität vom Mesh zu nutzen.
Die Load auf nem CPE ist aber auch nicht gravierend hoch, wenn man nun darüber was zieht (time wget -O /dev/null http://mirror.de.leaseweb.net/speedtest/10mb.bin z.B).
Ratlose Grüße bjo