Das Netzwerk in der Riesaer Str. 32 https://zentralwerk.org/
Go to file
Astro 4f82d29f79 pkgs/openwrt/uci-config: uciDeleteAll wireless.radio 2024-03-10 20:46:39 +01:00
config net/mgmt: add ap72 2024-03-10 19:20:51 +01:00
doc doc/hello: update openwrt model recommendations 2024-02-21 18:02:01 +01:00
nix pkgs/openwrt/uci-config: uciDeleteAll wireless.radio 2024-03-10 20:46:39 +01:00
.gitignore config: nixify everything 2021-11-13 01:23:23 +01:00
README.md README: add reasoning 2022-05-01 18:35:50 +02:00
cabling.md ap66: deploy 2023-12-18 22:22:20 +01:00
contact.md.asc ap71: prepare 2024-02-05 00:43:37 +01:00
flake.lock flake.lock: Update 2024-02-08 22:49:20 +01:00
flake.nix flake: fix 2024-02-08 20:40:35 +01:00
security.md more of the good stuff 2016-11-16 01:17:28 +01:00

README.md

Netzwerk im Zentralwerk

Begrüßung von Menschen im Haus, die für ihren Anschluss Zugang zum Netzwerk brauchen

Zweck

Das Zentralwerk ist ein Gebäude, das bestmöglich vernetzt sein soll. Das beginnt mit der Bereitstellung vom Zugang zum Internet, reicht über das isolierte Zusammenführen von einzelnen Anschlüssen und endet mit Angebot von zeitgemäßen Diensten für alle, die das Netz nutzen wollen.

Anstatt irgendwie rumzukonfigurieren, soll es eine Nachvollziehbarkeit (Reproduzierbarkeit) der gemachten Einstellungen geben. Mit der Transparenz soll es möglich sein, dass das Netzwerk möglichst einfach verwaltet werden kann. (Stichworte sind: Zusammenarbeit, Wiederherstellbarkeit, Teilhabe, Mitmachen, Nachahmen, …)

Öffentlichkeit

Warum ist das alles einsehbar? Für maximale Transparenz! Wir sind kein Unternehmen das Geheimnisse schützen muss. Stattdessen wollen wir freie Kommunikation für alle!

Wie werden die (wenigen) persönlichen Daten "öffentlich" verwaltet? Mit entsprechender Verschlüsselung! Wir, ein kleiner Kreis von Menschen die das Netzwerk im Zentralwerk betreuen, haben dafür einen Geheimschlüssel. Im Übrigen behandeln wir gleichermaßen sicher die "heiligen" Zugangsdaten für die Geräte (und andere für den Betrieb wichtigen Instanzen).

Informationen für Lebewesen, die das Netzwerk mit verwalten

Inhaltsverzeichnis

Development Setup

Get Nix with Flakes first:

nix-shell -p nixFlakes

To test-drive a server, run in a checkout of this repository:

nix run .#server2-vm

Login as root with an empty password. Use build-container $(ls -1 /etc/lxc/containers) to build and start the required containers.

If you encounter too many open files errors, bump limits for virtio with ulimit -n 524288 before starting QEMU.

For development purposes build-container can pick up container rootfs built outside QEMU when the container's prebuilt option is set.

Gerätekonfigurationen

nix build .#all-device-scripts
./result/bin/...

Oder direkt:

nix run .#switch-b2 && nix run .#ap3

Server Setup

ssh root@server2.cluster.zentralwerk.org

Ein Checkout dieses Repositorys liegt in ~/network. Dorthin zeigt auch /etc/nixos so dass nixos-rebuild switch problemlos klappt. Ausserdem ist dieser lokale Checkout in der nix registry eingetragen, was von bspw. von build-container verwendet wird.

Ausserdem werden dort immer wieder nix run .#switch-to-production ausgeführt.

LXC-Containers auf Server

Warum Container? Mehrere Routing-Tabellen verteile auf virtuelle Router statt Policy Routing oder Virtual Routing Functions. Container sind einfach zwischen Servern migrierbar.

Ein Server erwartet die für ihn (location = hostName) konfigurierten Container. systemd versucht sie zu starten. Das wird erst nach build-container funktionieren, welches das Rootfs anlegt.

Management per systemd-Service lxc@.service. Beispiel:

systemctl start lxc@pub-gw
lxc-attach -n pub-gw

Innerhalb eines Containers gibts erneut systemctl, journalctl, networkctl

Nix Flake

Site Config

Wir verwenden das Module-System von NixOS eigenständig in nix/lib/config weil:

  • Checks gegen options
  • Nutzbarkeit in Paketen (device-scripts) ausserhalb eines nixos-rebuild
  • Konfigurationsdaten über mehr als 1 Host

nixosConfigurations

Systemkonfigurationen für alle Hosts mit der role "server" oder "container"

nixosModule

Alle NixOS-Einstellungen

Secrets

nix run .#decrypt-secrets
$EDITOR config/secrets-production.nix
nix run .#encrypt-secrets

server1 als Cold Standby

Was ein Server kann, kann ein anderer auch. Er sollte gelegentlich gebootet und aufgefrischt werden.

Damit die LXC-Container ganz kontrolliert nur auf einem gestartet werden, muss die Datei /etc/start-containers vorhanden sein. Zum Umgang damit gibt es die zwei handlichen Befehle enable-containers und disable-containers.

IP Subnet Plans

nix build .#subnetplan4

nix build .#subnetplan6

Network Maps

Physikalische Vernetzung Logische Vernetzung