PostgreSQL Datenbank mit Synology Container

Nein ich fange nicht an PostgreSQL zu lernen.
Ich wollte nur wiki.js auf meiner Synology ausführen. Da der wiki Hersteller mitgeteilt hat das die nächste große Version in Zukunft kein MariaDB mehr unterstützen wird, habe ich mir gedacht das wiki.js direkt mit PostgreSQL zu konfigurieren.
Ich hatte nicht gedacht das ich auf solche Probleme treffen würde. Im Grunde läuft PostgreSQL auf der NAS im Container nur habe ich keine Möglichkeit mich dort an zu melden um eine Datenbank ein zu richten. Da ich mich mit PostgreSQL nicht auskenne dachte ich mit etwas Hilfe und ein zwei Konfigurationsdateien könnte das Problem behoben werden.

Ich danke für die Unterstützung aber ich habe aktuell keine Zeit mich massiv mit PostgreSQL auseinander zu setzen und werde ein anderes Wiki nutzen.
 
Werbung:
Werbung:
Wieso fängt man auf einem NAS an Postgresql zu lernen?
Ich denke, das war nicht die Frage.

Theoretisch sollte docker eine relativ einfache "Wegwerfinstallation" von irgendwas ermöglichen, ohne dass der Anwender IT Spezialist sein muss.
Bei einer Installation auf NAS würde ich generell anmerken, dass hier natürlich die Ressourcen passen müssen. Eine NAS Dimensionierung, die vor allem auf den Kern beschränkt ist, Dateien zu sharen, ist u.U. nicht ausreichend (billige NAS haben u.U. zu wenig RAM, was für reines File Serving aber ok ist). Eine Datenbank braucht aber etwas Speicher. Postgres ist da zwar gar nicht anspruchsvoll, aber ein wenig Luft zum Atmen ist nicht verkehrt.

Leider kann ich keine praktische Erfahrung mit Synology anführen, aber ich denke, es könnte helfen, postgresql mal rein zur Übung als docker Installation unter Windows zu versuchen (oder was sonst verwendet wird) und ein paar Prinzipien dabei kennenzulernen.

Docker Container nutzen idR zur Bereitstellung ihrer Dienste spezifische Ports (egal welche Form von Dienst im Container genutzt wird). Diese Ports stehen vielleicht in einer Standardinstallation (auf dem eigenen Rechner) dann direkt zur Verfügung, sprich Postgres ist gleich ansprechbar. Aus dem klassischen Postgres Port 5432 wird dann vielleicht ein anderer.
Diese Ports müssen u.U. weitergeleitet werden (Port Forwarding), wenn man auf den Container eines anderen Hosts zugreifen möchte (das NAS). Dabei muss man ggF. berücksichtigen, dass je nach Konfiguration des Docker Containers nicht nur der Port zu entscheidedend ist, sondern bereits davor die Netzwerksegemente (IP), die vollkommen eigenständig sein können. Das muss dann mittels Routing gelöst werden. (Hier wahrscheinlich nicht der Fall). Dazu kommt ggF. die Konfiguration der Firewall(s) / Portfreischaltung.

Die Docker Konfigurationsdatei ist dabei der richtige Ansatzpunkt. Das Konzept sieht so aus, dass man einen immer gleichen, identischen Container verwendet, den man von außen über Parameter konfiguriert und seinen Bedürfnissen anpasst. Bei jeder Frage von Persistenz, also Speichern von Daten "innerhalb" des Containers, kommt man leicht darauf, dass es konzeptionell gar nicht so gedacht ist. Ein Container soll keine individuellen Informationen tragen/halten und soll austauschbar, aktualisierbar, .. sein. DB und Speichern ist aber die Hauptfunktion in diesem Fall, da kommt das NAS ins Spiel, das hier seinen Speicherplatz im Container bereitstellt.

Hier sind ein paar Links, hab ich nur kurz überflogen. Vielleicht hilft es (keine ahnung, ob man Portainer wirklich braucht, ist vielleicht Synology spezifisch):
Müsste halbwegs aktuell sein. Das Video geht zwar um Nextcloud (mit postgres DB dahinter), aber das dürfte ja kein Problem sein. Die PG Installation sollte ziemlich die gleiche sein. Nextcloud halt weglassen.
 
Zurück
Oben