Einstellungen


(1) DB Informationen abrufen: Hiermit werden Informationen über Tabellen und Spalten während der Bearbeitung abgerufen. Um lange Ladezeiten zu verhindern, können Sie DB-Hilfsfunktionen hier deaktivieren. Hinweis: Wenn Sie diese Einstellung verändern, sollten Sie einen geöffneten Task neu laden, damit Sie aktualisierte Informationen erhalten.

(2) ID: Die ID der ETL/ELT-Pipeline. Mit dem Ordner-Icon rechts können Sie den Such-Index der ETL/ELT-Pipeline anzeigen. Diese Werte können in der Expertensuche abgefragt werden.

(3) Dokumentation: Hier können Sie eine beliebige URL angeben, die eine Dokumentation dieser Pipeline enthält. Über das Icon rechts kann diese aufgerufen werden. Es können hier auch System-Konstanten in die URL eingefügt werden.

(4) Eingangsdateien cachen bis zu: Zu lesende Dateien in Kind-Tasks, die kleiner als die angegebene Größe sind, werden im Speicher gehalten (und nicht auf der Festplatte).

(5) Log Level im ETL/ELT-Skript: Legt fest, welche Informationen geloggt werden. Achtung: Wenn Debug-Informationen geloggt werden, dann wird pro Durchlauf der Inhalt aller ETL/ELT-Felder und ETL/ELT-Variablen geschrieben, was zu einer sehr hohen Datenmenge führt. Verwenden Sie diesen Modus also nur bei Bedarf.

(6) ETL/ELT-Link: Relevant für REST-Aufrufe. Ist im Standard aber nicht aktiv.

(7) Abarbeitung: Die Abarbeitung der ETL/ELT-Pipeline kann lokal oder auf einem entfernten Server (zur Ressourcenschonung des Hauptsystems) stattfinden.

Wichtiger Hinweis:

Dateien, die der Remote-Server abarbeiten soll, müssen auch auf dem Remote-Server liegen und die Pfade in der ETL/ELT-Pipeline müssen entsprechend denen des Remote-Servers sein. Liegt die Datei z. B. remote unter /opt/input/Datei.csv und lokal unter /opt/Lobster/data/webapps/root/upload/Datei.csv, dann muss in der ETL/ELT-Pipeline als Eingangsquelle der Pfad /opt/input/Datei.csv angegeben sein.

Ebenso werden Zieldateien auf dem Remote-Server hinterlegt.

D. h. man muss entweder die Ordner des Remote-Servers auf dem Integration Server mounten, oder umgekehrt, damit man die Dateien direkt weiterverarbeiten kann. Alternativ kann die Verteilung der Dateien auch mit Profilen organisiert werden (z. B. in Workflows).

Wenn man in der ETL/ELT-Pipeline Datenbanken verwendet, muss auf dem Remote-Server ebenfalls Zugriff auf diese vorhanden sein. D. h., man muss die Konfigurationsdatei ./etc/database.xml der verwendeten Lobster Bee anpassen.

(8) Soll nur in einer Instanz laufen: Falls gesetzt, können nicht mehrere Instanzen dieser ETL/ELT-Pipeline gleichzeitig laufen. Wenn also bereits ein Job für diese Pipeline läuft, können Sie keinen weiteren starten.

(9) Null-Werte in Funktionsketten erhalten: Beim Wählen dieser Checkbox werden eingelesene NULL-Werte in Funktionsketten nicht durch einen leeren String ersetzt.

(10) Zwischenablage dateibasiert (sonst im Speicher): Wird diese Checkbox gesetzt, wird die Zwischenablage in einer Datei gehalten und nicht im Speicher.

(11) Backup laden: Hier kann ein Backup geladen werden, siehe auch (14).

(12) Speichern & ausführen: Die Pipeline wird gespeichert und ausgeführt. Hinweis: Beim Start änderbare Variablen werden hier ignoriert.

(13) Speichern & Testlauf : Die Pipeline wird gespeichert und es wird ein Testlauf ausgeführt. Die Eingangsdaten können eingeschränkt werden in einem weiteren Dialog. Hinweis: Beim Start änderbare Variablen werden hier ignoriert.

(14) Speichern & Schließen : Die Pipeline wird gespeichert und geschlossen. Zudem wird ein Backup erzeugt, siehe auch (11).

(15) Bild: Hier können Sie ein Bild für diesen Eintrag hochladen. Sichtbar ist dieses in der Übersicht, wenn die Kachelansicht ausgewählt ist.