Questioner
Neuer Benutzer
- Beiträge
- 4
Hi Leute,
ich betreibe eine Software (keine Eigenentwicklung), die Textdateien aus einem Verzeichnis einließt und in einer Queue-Tabelle für die weitere Verarbeitung zwischenspeichert. Nach der Verarbeitung einer Datei wird diese aus der Queue-Tabelle gelöscht.
In aller Regel befinden sich nur wenige Dateien in der Tabelle. Sollte das System aber mal stehen bleiben füllt sich das Verzeichnis kontinuierlich weiter und der Speicherplatz der Queue-Tabelle explodiert etwas, sobald die Dateien dann geballt eingelesen werden.
Die InnoDB gibt den Speicherplatz aber nach dem Löschen der Datensätze nicht wieder frei... Nach einiger Recherche und viel Zeit habe ich die Datenbank jetzt veranlasst, für jede Tabelle einen eigenen Tablespace anzulegen. Jedoch zeigt sich hier das gleiche Verhalten.
Gibt es keine Möglichkeit den Speicherplatz wieder freizugeben ohne die gesamte Tabelle zu löschen und einen Dump neu einzuspielen?! Das ist bei derartigen Datenmengen kaum zu bewältigen, zumal ja nochmal zusätzlicher Speicherplatz für den jeweiligen Dump erforderlich ist...
Liebe Grüße
Questioner
ich betreibe eine Software (keine Eigenentwicklung), die Textdateien aus einem Verzeichnis einließt und in einer Queue-Tabelle für die weitere Verarbeitung zwischenspeichert. Nach der Verarbeitung einer Datei wird diese aus der Queue-Tabelle gelöscht.
In aller Regel befinden sich nur wenige Dateien in der Tabelle. Sollte das System aber mal stehen bleiben füllt sich das Verzeichnis kontinuierlich weiter und der Speicherplatz der Queue-Tabelle explodiert etwas, sobald die Dateien dann geballt eingelesen werden.
Die InnoDB gibt den Speicherplatz aber nach dem Löschen der Datensätze nicht wieder frei... Nach einiger Recherche und viel Zeit habe ich die Datenbank jetzt veranlasst, für jede Tabelle einen eigenen Tablespace anzulegen. Jedoch zeigt sich hier das gleiche Verhalten.
Gibt es keine Möglichkeit den Speicherplatz wieder freizugeben ohne die gesamte Tabelle zu löschen und einen Dump neu einzuspielen?! Das ist bei derartigen Datenmengen kaum zu bewältigen, zumal ja nochmal zusätzlicher Speicherplatz für den jeweiligen Dump erforderlich ist...
Liebe Grüße
Questioner