Removed dnsmasq from proxy in favor of AdguardHome
This commit is contained in:
parent
4f07bcf3b3
commit
69590f4bb4
5 changed files with 675 additions and 667 deletions
5
.vscode/settings.json
vendored
5
.vscode/settings.json
vendored
|
@ -21,7 +21,8 @@
|
||||||
],
|
],
|
||||||
"path": "systemd-run"
|
"path": "systemd-run"
|
||||||
}
|
}
|
||||||
} , "highlight.regex.regexes": [
|
},
|
||||||
|
"highlight.regex.regexes": [
|
||||||
{
|
{
|
||||||
"languageIds": [
|
"languageIds": [
|
||||||
"css",
|
"css",
|
||||||
|
@ -592,5 +593,5 @@
|
||||||
}
|
}
|
||||||
]
|
]
|
||||||
}
|
}
|
||||||
],
|
]
|
||||||
}
|
}
|
72
hosts/x86/proxy/config/adguard.nix
Normal file
72
hosts/x86/proxy/config/adguard.nix
Normal file
|
@ -0,0 +1,72 @@
|
||||||
|
{ pkgs, lib, ... }:
|
||||||
|
/*
|
||||||
|
TODO: Eventually, when my proxy/DNS/VPN mess is working like I want.
|
||||||
|
This should be switched to service.adguard not a container
|
||||||
|
*/
|
||||||
|
{
|
||||||
|
# Containers
|
||||||
|
virtualisation.oci-containers.containers."adguard-adguard" = {
|
||||||
|
image = "adguard/adguardhome:latest";
|
||||||
|
volumes = [
|
||||||
|
"/etc/adguard/confdir:/opt/adguardhome/conf:rw"
|
||||||
|
"/etc/adguard/workdir:/opt/adguardhome/work:rw"
|
||||||
|
"/var/lib/acme:/opt/adguardhome/work/acme:ro"
|
||||||
|
];
|
||||||
|
ports = [
|
||||||
|
"53:53/tcp"
|
||||||
|
"53:53/udp"
|
||||||
|
"853:853/tcp"
|
||||||
|
"3000:3000/tcp"
|
||||||
|
];
|
||||||
|
log-driver = "journald";
|
||||||
|
extraOptions = [
|
||||||
|
"--network-alias=adguard"
|
||||||
|
"--network=adguard_default"
|
||||||
|
];
|
||||||
|
};
|
||||||
|
systemd.services."docker-adguard-adguard" = {
|
||||||
|
serviceConfig = {
|
||||||
|
Restart = lib.mkOverride 90 "always";
|
||||||
|
RestartMaxDelaySec = lib.mkOverride 90 "1m";
|
||||||
|
RestartSec = lib.mkOverride 90 "100ms";
|
||||||
|
RestartSteps = lib.mkOverride 90 9;
|
||||||
|
};
|
||||||
|
after = [
|
||||||
|
"docker-network-adguard_default.service"
|
||||||
|
];
|
||||||
|
requires = [
|
||||||
|
"docker-network-adguard_default.service"
|
||||||
|
];
|
||||||
|
partOf = [
|
||||||
|
"docker-compose-adguard-root.target"
|
||||||
|
];
|
||||||
|
wantedBy = [
|
||||||
|
"docker-compose-adguard-root.target"
|
||||||
|
];
|
||||||
|
};
|
||||||
|
|
||||||
|
# Networks
|
||||||
|
systemd.services."docker-network-adguard_default" = {
|
||||||
|
path = [ pkgs.docker ];
|
||||||
|
serviceConfig = {
|
||||||
|
Type = "oneshot";
|
||||||
|
RemainAfterExit = true;
|
||||||
|
ExecStop = "docker network rm -f adguard_default";
|
||||||
|
};
|
||||||
|
script = ''
|
||||||
|
docker network inspect adguard_default || docker network create adguard_default
|
||||||
|
'';
|
||||||
|
partOf = [ "docker-compose-adguard-root.target" ];
|
||||||
|
wantedBy = [ "docker-compose-adguard-root.target" ];
|
||||||
|
};
|
||||||
|
|
||||||
|
# Root service
|
||||||
|
# When started, this will automatically create all resources and start
|
||||||
|
# the containers. When stopped, this will teardown all resources.
|
||||||
|
systemd.targets."docker-compose-adguard-root" = {
|
||||||
|
unitConfig = {
|
||||||
|
Description = "Root target generated by compose2nix.";
|
||||||
|
};
|
||||||
|
wantedBy = [ "multi-user.target" ];
|
||||||
|
};
|
||||||
|
}
|
|
@ -2,6 +2,13 @@
|
||||||
services.caddy = {
|
services.caddy = {
|
||||||
enable = true;
|
enable = true;
|
||||||
virtualHosts = {
|
virtualHosts = {
|
||||||
|
"adguard.ryot.foo" = {
|
||||||
|
useACMEHost = "ryot.foo";
|
||||||
|
extraConfig = ''
|
||||||
|
reverse_proxy localhost:3000
|
||||||
|
'';
|
||||||
|
};
|
||||||
|
|
||||||
"cloudflared.ryot.foo" = {
|
"cloudflared.ryot.foo" = {
|
||||||
useACMEHost = "ryot.foo";
|
useACMEHost = "ryot.foo";
|
||||||
extraConfig = ''
|
extraConfig = ''
|
||||||
|
|
|
@ -1,72 +0,0 @@
|
||||||
{
|
|
||||||
services.dnsmasq = {
|
|
||||||
enable = true;
|
|
||||||
settings = {
|
|
||||||
# Listen on eth0 for external clients and lo for local host
|
|
||||||
interface = [
|
|
||||||
"eth0"
|
|
||||||
"lo"
|
|
||||||
];
|
|
||||||
|
|
||||||
no-hosts = true;
|
|
||||||
no-resolv = true;
|
|
||||||
|
|
||||||
server = [
|
|
||||||
"104.40.3.1" # Query openWRT first
|
|
||||||
"1.1.1.1" # Redundancy
|
|
||||||
"1.0.0.1"
|
|
||||||
"8.8.8.8"
|
|
||||||
];
|
|
||||||
|
|
||||||
# INFO: Why this setup for services?
|
|
||||||
# - OpenWRT forwards every *ryot.foo and *toph.cc query to this DNS server
|
|
||||||
# - dnsmasq hands out fixed IPs for those subdomains.
|
|
||||||
# - Each target host runs Caddy to serve its site.
|
|
||||||
# No Docker labels, no discovery magic—just reliable routing clearly documented with Nix.
|
|
||||||
# Its not automated but this is a homelab... ill survive
|
|
||||||
|
|
||||||
address = [
|
|
||||||
## CLOUD ##
|
|
||||||
"/drive.ryot.foo/104.40.3.24"
|
|
||||||
|
|
||||||
## PROXY ##
|
|
||||||
"/cloudflared.ryot.foo/104.40.3.34"
|
|
||||||
"/ochre.ryot.foo/104.40.3.34"
|
|
||||||
"/pve.ryot.foo/104.40.3.34"
|
|
||||||
"/wrt.ryot.foo/104.40.3.34"
|
|
||||||
|
|
||||||
## KOMO ##
|
|
||||||
"/auth.ryot.foo/104.40.3.44"
|
|
||||||
"/frp.ryot.foo/104.40.3.44"
|
|
||||||
"/git.ryot.foo/104.40.3.44"
|
|
||||||
"/grafana.ryot.foo/104.40.3.44"
|
|
||||||
"/home.ryot.foo/104.40.3.44"
|
|
||||||
"/influx.ryot.foo/104.40.3.44"
|
|
||||||
"/komodo.ryot.foo/104.40.3.44"
|
|
||||||
"/mail.ryot.foo/104.40.3.44"
|
|
||||||
"/map.ryot.foo/104.40.3.44"
|
|
||||||
"/outline.ryot.foo/104.40.3.44"
|
|
||||||
"/plane.ryot.foo/104.40.3.44"
|
|
||||||
|
|
||||||
"/blog.toph.cc/104.40.3.44"
|
|
||||||
|
|
||||||
## SOCK ##
|
|
||||||
"/upsnap.ryot.foo/104.40.3.54"
|
|
||||||
"/sock.ryot.foo/104.40.3.54"
|
|
||||||
];
|
|
||||||
|
|
||||||
cache-size = 1000;
|
|
||||||
|
|
||||||
# Log queries for debugging (optional)'
|
|
||||||
# log-queries = true;
|
|
||||||
};
|
|
||||||
};
|
|
||||||
|
|
||||||
networking = {
|
|
||||||
# Open DNS port in firewall
|
|
||||||
firewall = {
|
|
||||||
allowedTCPPorts = [ 53 ];
|
|
||||||
allowedUDPPorts = [ 53 ];
|
|
||||||
};
|
|
||||||
};
|
|
||||||
}
|
|
BIN
secrets.nix
BIN
secrets.nix
Binary file not shown.
Loading…
Add table
Reference in a new issue