Inhaltsverzeichnis:
Inhalt |
---|
...
Das Replikationsverzeichnis ist das Ablageort der Datensätze zwischen dem Export aus dem lokalen Bestand und den Hochladen in die assfinet cloud.
...
Sollte ihr Bestand in der assfinet cloud gegen das Hochladen gesperrt sein, werden die ZIP Dateien in diesem Verzeichnis abgelegt. Die Dateien werden in diesem Verzeichnis so lange gesammelt, bis sie diese dort herauslöschen.
Löschen der Daten aus dem REPL Verzeichnis.
Über die Zeit sammeln sich immer mehr Dateien in dem REPL Verzeichnis aus. Die meisten weil diese dort für eventuellen Bedarf archiviert werden und seltenst bleiben auch Dateien bestehen die üblicherweise von ams im laufe des Prozesses automatisch gelöscht werden sollten.
Die folgenden Beispiele gehen davon aus, das der Exportpfad auf das Verzeichnis REPL in der root von Laufwerk A: zeigt. Passen Sie dies sowie den zeitraum nach Ihrem bedarf an.
Aufgabe | Befehl | Kommentar |
---|---|---|
Löschen von nicht automatisch gelöschten JSON Dateien | ForFiles /p "A:\REPL" /M *.json /d -2 /c "cmd /c del /q @file" | Löscht die temporären JSON Dateien, wenn diese 2 Tage als sind. Üblicherweise werden diese automatisch von ams im Laufe des Prozesses gelöscht und können nur selten gefunden werden. |
Löschen von erfolgreich in die cloud übertragenden Datenpaketen | ForFiles /p "A:\REPL\0" /M *.zip /d -28 /c "cmd /c del /q @file" | Löscht die entsprechenden ZIP Dateien die älter als 4 Wochen sind |
Löschen von Datenpaketen die zwar interpretiert werden konnten aber aus gründen der Konsistenz abgelehnt wurden | ForFiles /p "A:\REPL\1" /M *.zip /d -56 /c "cmd /c del /q @file" | Löscht die entsprechenden ZIP Dateien die älter als 8 Wochen sind Denken Sie daran das Fehlerprotokoll zu prüfen um die Ursache zu beheben und die Datenlücke zu schließen. |
Löschen von Datenpaketen die nicht interpretiert werden konnten | ForFiles /p "A:\REPL\2" /M *.zip /d -112 /c "cmd /c del /q @file" | Löscht die entsprechenden ZIP Dateien die älter als 16 Wochen sind. Denken Sie daran das Fehlerprotokoll zu prüfen um die Ursache zu beheben und die Datenlücke zu schließen. |
Anmerkungen
Wenn das zusammenfassen von 6000 Datensätzen pro Zip an ein Limit von Arbeitsspeicher oder Netzwerktimeout stößt, kann dies angepasst werden. Siehe dazu: Wie kann die Last auf den benötigten Arbeitsspeicher beim Änderungen exportieren reduziert werden