Neue Funktionalitäten
Unterstützung für Teradata Datenbanken
Datenquelle
Die Verbindung zu einer Teradata-Datenbank ist nun möglich. Dazu wurde in der "Ado.Net Datasource" der entsprechende Provider ergänzt.
Um die neue Funktionaliät zu nutzen, legen Sie mit der Funktion "Data Connections" → "Data Sources" → "New Data Source" einen neue Datenquelle an:
- Wählen Sie zunächst "AdoNet Data Source" als Typ der Datenquelle aus
- Anschließend wählen Sie "Teradata 16.20" aus der Liste der Provider aus.
Datenziel
Um ein Datenziel für Teradata anzulegen, wählen Sie "Data Connections" → "Data Destinations" → "New Data Destination" und legen so ein neues Datenziel an.
- Wählen Sie als Datenziel-Typ "AdoNet Data Destination" aus.
- Wählen Sie in der Auswahlliste zum Provider den Eintrag "Teradata" aus, um ein Datenziel für eine Teradata-Datenbank anzulegen.
Neue Matrix-Testoberfläche
Es ist nun möglich eine ausgewählte Matrix über eine separate Oberfläche zu testen. Dazu finden Sie unter dem Bereich "Matching Settings" in der Navigation im Management Studio nun den Eintrag "Matrix Test Interface":
So nutzen Sie die Vergleichsoberfläche:
- Wählen Sie im ersten Schritt die Matrix, die Sie zum Vergleich heranziehen wollen aus der Liste aus. Im obigen Beispiel wurde eine Firmenvergleichsmatrix für SAP verwendet.
- Tragen Sie nun die entsprechenden zu vergleichenden Datensätze in die Tabelle ein. Sie können auch geeignete Daten aus einem vorherigen Test mit der Funktion "Load" übernehmen.
- Mit der Funktion "Compare" werden die Datensätze miteinander verglichen, das Ergebnis wird in die Tabelle in die erste Spalte eingetragen:
- Mit "Head" wird der Kopfdatensatz der Dublettengruppe gekennzeichnet
- Handelt es sich um eine Dublette zu Head, so wird die Trefferspalte aus der Matrix in die Spalte "HitColumn" als Zahlenwert eingetragen.
Sie können die Tests beliebig wieder holen, nutzen Sie die Funktion "Save" um Ihre Eingaben in die Oberfläche in eine Datei zu sichern. So stehen diese jederzeit für wiederholte Tests zur Verfügung.
Dublettenabgleich mit Mehrfachwerten
Bisher war ein Abgleich von Feldern, die mehrere mögliche Inhalte boten nur mittels spezieller Feldinhalte und Plugins möglich. Mit dieser Vorgehensweise kam gleichzeitig der Nachteil, dass nicht nach den hinten stehenden Feldinhalten indiziert werden konnte. Dies führte dazu, dass zwar die Matrix den Datensatz erkennen kann, aber der Datensatz trotzdem nicht gefunden wurde, weil dieser nicht in der Vorauswahl selektiert wurde.
Daher wird nun in der InMemory Datenbank ein Multi-Wert-Feld unterstützt.
So nutzen Sie die Multi-Felder
Ein Multi-Wert-Feld wird in der Einstellung der In Memory Data Destination konfiguriert. Doppelklicken Sie dazu "Data Connections → Data Destination → <Ihr InMemory-Datenziel>" und öffnen Sie die Einstellungen zum Index:
Nun können Sie im nächsten Schritt in der Spalte "Multivalue" für das Feld, das mehrere Werte beinhalten soll das Häkchen setzen und so den Index darauf vorbereiten. Das Feld benötigt für die korrekte Funktionsweise die Feldinhalte in einem codierten Format (JSON).
Damit Sie diesen Wert auf einfache Art und Weise generieren können, steht Ihnen im Workflow eine neue Aktivität zur Verfügung, die Funktion "Combine MultiValue":
Mit dieser Aktivität können Sie mehrere Quellfelder aus der Struktur auswählen, diese werden dann in das neue Multi-Wert-Feld geschrieben. Nutzen Sie die Funktion z.B. während der Transaktion bei der Befüllung des Datenziels. Natürlich können Sie das Zielformat für das Multifeld auch direkt über eine Datenquelle im korrekten Format anliefern.
Das genutzte JSON-Format sieht wie folgt aus (Beispiel):
{"RUFNR1":"125970","RUFNR2":"12597-300"}
Anbindung von Data Quality Express 2
Data Quality Express ist ein Service, auf dem Sie grundlegende Dienste auf Basis einfacher Kontingente nutzen können. Ob postalische Validierung, Anreicherung von Firmeninformationen über das Handelsregister-Verzeichnis oder die Prüfung auf Insolvenzen bietet Data Quality Express günstige und nutzungsabhängige Dienste, die in Ihre Workflow eingebunden werden können.
Damit Sie diesen Dienst noch einfacher nutzen können haben wir die Einstellungsmöglichkeiten in Data Quality Express weiter verbessert und an die neuen Standards angepasst. So können nun Verbindungseinstellungen zentral in der Konfiguration von Data Quality Server hinterlegt und mehrfach in Workflows genutzt werden.
So nutzen Sie die neue Anbindung an Data Quality Express:
- Wählen Sie unter "Recordbased Operations" den Eintrag "DQ Express² Connections" aus und legen Sie mit der rechten Maustaste ein neues Einstellungsobjekt an
- Geben Sie dem Objekt einen Namen
- Übernehmen Sie den Endpunkt für Data Quality Express 2: "https://api.data-quality-express.de"
- In Username und Passwort können Sie Ihre individuellen Zugangsdaten eintragen
Über "Check remaining contingent" können Sie sich den aktuellen Stand Ihrer vorhandenen Kontingente anzeigen lassen.
"Test Connection" überprüft, ob der Endpunkt erreichbar ist und ob die Login-Daten korrekt eingestellt wurden.
Im Idealfall sind Sie nun bereit für DQ-Express 2 und können den Dienst direkt aus Ihren Workflows nutzen.
So nutzen Sie die Einstellung im Workflow:
Schritt1: Wählen Sie die Aktivität aus der Liste der verfügbaren Aktivitäten im Workflow aus.
Schritt 2: Konfigurieren Sie die Parameter der Aktivtät, indem Sie folgende Parameter setzen:
Einstellung | Beschreibung |
---|---|
Setting | Name der Einstellung für Data Quality Express 2, wie in den Datensatzbasierten Operationen eingestellt. Wählen Sie dazu einen Eintrag aus der Liste. |
Module | Das Data Quality Express Paket, das Sie nutzen wollen, z.B. die postalische Validierung |
Name der Ergebnistabelle | Name der Ergebnistabelle, die die Ergebnisse des Data Quality Express Aufrufes beinhalten wird. Diese Ergebnisse können im Workflow nachverarbeitet werden. Beispiel postalische Validierung: Die korrigierte Adresse oder die Adressvorschläge |
Task Manager
Stoppen von Prozessen überarbeitet
Um einen Prozess im Manager zu stoppen, konnte man die Option "Prozess stoppen" wählen. Dadurch wurde versucht einen ordentlichen Abbruch zu erzeugen. Wählte man diese Option erneut, konnte man den Prozess zum sofortigen Abbruch zwingen, was dem Benutzer jedoch nicht ersichtlich war. Diese zwei Vorgehen wurden in zwei separate Optionen getrennt.
Wollen Sie den Prozess "sanft" abbrechen, nutzen Sie die Option "Cancel". Der Prozess endet dann sobald er auf die Anforderung reagieren kann.
Wollen Sie den Prozess "hart" abbrechen, nutzen Sie die Option "Kill". Diese beendet den betroffenen Prozess unabhängig vom Laufstatus des Prozesses. Diese Option sollte nur genutzt werden, wenn der Prozess nicht mehr auf normale Abbruchanforderungen reagiert. Sofern der Prozess auf Datenquellen und Ziele zugreift kann können dabei offene Dateien oder Datenbankverbindungen zurückbleiben. Wir empfehlen daher, zeitnah einen Serverneustart einzuplanen um Sperren zu entfernen.
Workflow
Export der Workflows verbessert
Beim Export eines Workflows werden nun auch alle Einstellungen wie Datenquellen, Matrizen, Workflows etc. exportiert, die vom Hauptworkflow verwendet werden.
Über die Funktion "Export Workflow Settings" können Sie einen Workflow sowie die dazu gehörenden Objekte in einer ZIP-Datei exportieren. Es werden nun viele weitere Objekte, die im Workflow genutzt werden ebenfalls mit in die Export-Datei übernommen. Diese finden Sie dann in den entsprechenden Unterverzeichnissen in der ZIP-Datei.
So können Sie einfach Änderungen von einer Serverinstanz auf eine andere übernehmen.
Neue Aktivität: Ländervereinheitlichung
Mit der neuen Aktivität "Ländervereinheitlichung" können nun Länderangaben um verschiedene Daten wie ISO2, ISO3 und offizielle Landesbezeichnungen angereichert werden.
Optische Verbesserung in den Script-Aktivitäten
Die Farben in den Script-Editoren der SQL- und C#-Skript-Aktivität wurden angepasst, damit die Benutzung angenehmer ist:
Allgemeine Verbesserungen
Titel | Beschreibung | Komponente |
---|---|---|
Neuer Fehlerdialog | Das Nachrichtenfenster wurde überarbeitet. Es ist nun deutlicher, ob es sich um eine Warnung oder einen Fehler handelt. | Basis |
Beschreibung von Gruppen ist kein Muss-Feld mehr | Benutzergruppen müssen nun nicht mehr mit einem Beschreibungstext hinterlegt werden. | Benutzerverwaltung |
Checkboxen bei zugeordneten Benutzergruppen entfernt | Wenn ein Benutzer angesehen wird, wurden innerhalb der angezeigten Benutzergruppen bisher Checkboxen für die einzelnen Funktionen angezeigt. Das Manipulieren jener hatte jedoch keine Auswirkung, da diese Einstellung nur in der Gruppe selbst geändert werden konnte. Daher wurden die Checkboxen entfernt. | Benutzerverwaltung |
PostgreSQL - Unterstützung für verschlüsselte Übertragung | Die Verbindung zu einer PostgreSQL-Datenbank kann nun verschlüsselt aufgebaut werden. Setzen Sie dazu in der ADO.NET Datenquelle im Provider "Postgres" den Parameter SslMode auf "Require". | Datenverbindung |
PostgreSQL - Unterstützung für Version 12 | Die Datenbanktreiber wurden auf den aktuellen Stand gehoben. Es wird jetzt PostgreSQL bis Version 12 unterstützt. | Datenverbindung |
Oracle - Unterstützung für Version 18c | Die Datenbanktreiber wurden auf den aktuellen Stand gehoben. Es werden jetzt Oracle Versionen bis 18c unterstützt. | Datenverbindung |
Logging-Level bei fehlendem Export in tabellenbasierten Workflows geändert | Wenn in einem tabellenbasierten Worfklow keine Exportverbindung ausgewählt wurde, wird dies nun als INFO statt als WARN geloggt. | Logging |
Startdatum für neue Scheduler angepasst | Das Startdatum für neue Scheduler wird nun immer auf den aktuellen Tag gesetzt. | Scheduler |
Laufenden Import beim Compliance Check anzeigen | Zukünftig wird beim Compliance Check-Setting angezeigt, wenn die Daten aktuell importiert werden | Sanktionslistenabgleich |
Bugfixes
Titel | Beschreibung | Komponente |
---|---|---|
AddCase Aktivität Performance | Es wurde die Performance der AddCase Aktivität verbessert. | Workflow |
Export Workflow-Texte korrigiert | Es wurden Texte für das Exportieren der Workflows geändert, damit sie verständlicher sind. | Workflow |
Textfehler beim Workflow kopieren | Es wurden kleinere Fixes beim Kopieren der Workflows vorgenommen. | Workflow |
Perfomanceproblem bei nicht-threadsafe Workflows | Durch das Sperrverhalten bei nicht-threatsafen Workflows kam es zu einem Performanceproblem. Dies wurde behoben. | Workflow |
Passwörter im Klartext gespeichert | In den ADO.Net Datenquellen wurden versehentlich Passwörter im Klartext hinterlegt. Zukünftig werden diese verschlüsselt abgelegt. | Datenverbindungen |
Caching der Workflows fehlerhaft | Ein Fehler beim Cachen der Workflows führte zu einem Performanceproblem, da trotz Caching die Initialisierung durchgeführt wurde. | Workflows |
Profiler zeigt keine ResultTable | Wenn von außen eine ResultTable übergeben wurde, wurde diese nicht ordnungsgemäß im Profiler angezeigt. | Profiler |
AD Offline-Fehler im Workflow | Wurde in einem Workflow eine AD Offline-Aktivität verwendet und es kam vor, dass ein Land angefragt wurde, zu dem keine Refrenzdaten vorhanden sind, wurde dieses Problem geschluckt. Zukünftig wird in diesen Fällen ein neuer Statuscode zurückgelifert: NOF REF (REF = Referenzdaten). | Workflow RBO |
Absturz durch Segmenter | Es wurde ein Fehler behoben, bei dem das Hinzufügen eines Zeitintervalls im Segmenter zum Absturtz des Management Studios führte. | Monitoring |
Initialimport der Compliance Check Datenbank fehlt | Es kann nun ausgewählt werden, ob die Daten für den Compliance Check direkt beim Serverstart geladen werden sollen. Ohne diese Einstellung kam es zu Fehlern beim Verwenden der dazugehörigen Aktivitäten. | RBO |
Zählfehler im Segmenter | Es wurde ein Fehler behoben, bei dem der Segmenter die Anzahl der verarbeiteten Datensätze nicht korrekt ermittelte. | Monitoring |
Performanceproblem im Compliance Check | Die Performance des Compliance Checks wurde verbessert. | RBO |
MSSQL Datenziel lässt sich nicht mehr öffnen | Es wurde ein Fehler behoben, der dazu führte, dass ein MSSQL Datenziel nicht mehr geöffnet werden konnte. | Datenverbindungen |
Neuladen der Plugins führt zu Serverabsturz | Es kam sporadisch zu einem Fehler beim Neuladen von Plugins. Dieser Fehler legte den Server komplett lahm, wurde nun aber behoben. | Workflow Plugins |
Klonen von Datenzielen langsam und speicherlastig | Beim Kopieren von Datenzielen in einem tabellenbasierten Workflow kam es zu einer hohen Speicherauslastung gepaart mit einer langsamen Performance. Beide Probleme wurden behoben. | Workflow |
Tastenkürzel in der Skriptaktivität zerstörten Workflows | Wurden Tastenkürzel (z.B. STRG + S) versehentlich in der C#-Skriptaktivität gedrückt und gespeichert, konnte die Aktivität nicht mehr geöffnet werden. Bevor der Benutzer das Skriptfenster zum Speichern verlassen kann, müssen nun die Kürzel entfernt werden. | Workflow |
Unterstriche werden als Spezialzeichen aufgeführt | Beim MailCheck wurde der Unterstrich als fehlerhaft beurteilt, wenn die Spezialzeichen nicht erlaubt waren. | RBO |
Kontingentabfrage schlägt fehl | Das Abfragen der Kontingente in der DQ Express Einstellung war zeitweiße nicht mehr möglich, da sich in der Schnittstelle Änderungen ergaben. | RBO |
FACT-Finder Worldmatch Datenziel konnte nur mit Regelsatz angelegt werden | Das Anlegen eines Datenziels wurde blockiert, solange kein Regelsatz ausgewählt war. | Datenverbindungen |
Leerer Datentyp führt zu Absturz | Wurde ein Datentyp in einem Datenziel als "leer" gespeichert, kam es zu einem Absturz des Management Studios. | Datenverbindungen |
Löschen von Feldern in der Satzstruktur ohne Wirkung | Beim Löschen von Feldern in der Satzstruktur konnte es vorkommen, dass das Feld nicht wie vorgesehen entfernt wurde. | Workflow |
Import von falschen Format führt zu unspezifischer Fehlermeldung | Wurde eine nicht valide Datei als Packstation importiert, kam es zwar zu einem Fehler, dieser war für den Benutzer jedoch kaum verwertbar. Zudem kam der Fehler mit einer zeitlichen Verzögerung, was zu noch mehr Verwirrung führte. | RBO |
Datenquellenfenster kann mit "a" geschlossen werden | Das Drücken von "a" konnte dafür sorgen, dass das Fenster zum Anlegen einer Datenquelle geschlossen wurde. | Datenverbindungen |
Escape aus einem Feldnamenfeld führt zu Absturz | Das Verlassen eines neuen Feldnamens mittels Escape-Taste konnte zu einem Absturz des Management Studios führen. | Workflow |
Abfrage der Datensatzanzahl bei DB2 läuft unendlich | Das Abfragen der Informationen und damit der Datensatzanzahl in einer DB2 Datenquelle führte zu einem Deadlock. | Datenverbindungen |
Referenzierter Workflow wird nicht exportiert | Beim Exportieren eines tabellenbasierten Workflows konnte es dazu kommen, dass der darin referenzierte datensatzbasierte Workflow nicht mitexportiert wurde. | Workflow |
GetLegalForm gibt falschen Status zurück | Beim Prüfen der Firma "Gaggenau Haushaltsgeräte GmbH" wurde ein falscher Statuscode zurückgegeben." | RBO |
Öffnen der Intradublikatssuche führt zu Absturz | Beim Öffnen einer Intradublikatssuche konnte es zu einem Absturz kommen, wenn darin Datenverbindungen verwendet wurden, die nicht mehr existierten. Selbiger Fehler konnte ebenfalls entstehen, wenn es zwischen Datenquellen und -zielen zu Namenskollisionen kam. | Intradublikatssuche |
Gruppenzuordnung wird nicht gespeichert | Beim Zuordnen einer Gruppe nach DQ Server Neustart konnte es dazu kommen, dass die Änderungen nicht ordnungsgemäß gespeichert wurden. | Benutzerverwaltung |
Ändern der Gruppenberechtigung nicht möglich | Wurden Rechte in den Gruppen AD-Group und Administration geändert, wurden diese nach DQ Server Neustart nicht ordnungsgemäß geladen. | Benutzerverwaltung |
PullSync ist langsam und speicherlastig | Der PullSync-Prozess war zuvor langsam und sehr speicherlastig. Dies wurde nun behoben. | Datenverbindungen |
Settingspfad kann nicht gelesen werden | Es wurde ein Fehler behoben, der dafür sorgte dass der Settingspfad weder gelesen noch geändert werden konnte. | Administration |
Feldliste nicht übernommen | Wenn ein InMemory Datenziel über eine Intradublikatssuche angelegt wurde, wurde die Feldliste nicht automatisch befüllt. | Datenverbindungen Intradublikatssuche |
Fehler beim Abholen der Felder bei ungültigem Dateipfad | Wurde bei einer Textdatenquelle ein ungültiger Pfad hinterlegt und anschließend versucht die Feldnamen abzuholen, kam es zu einem Fehler. Selbiges geschah beim Anzeigen der Preview. Zukünftig wird eine Meldung angezeigt, die auf die Ungültigkeit des Pfads hinweist. | Datenverbindungen |
Fehler beim Abholen von Tabellen/Felder bei ungültigem Datenbanklogin | Wurden Tabellen oder Felder in einer Datenquelle abgeholt, obwohl die Logindaten hierfür inkorrekt waren, kam es zu einem Fehler. Zukünftig wird eine Meldung angezeigt, die auf das Problem hinweist. | Datenverbindungen |
Prüfung des AD Offline Keys fehlerhaft | Beim Verwenden der AD Offline Aktivität kam es bei der Überprüfung der Keys zu einem Fehler. | Workflow |
Fehler beim Abholen von Tabellen/Felder bei ungültigem SalesForce Login | Wurden Felder in einer SalesForce Datenquelle abgeholt, obwohl die Logindaten hierfür inkorrekt waren, kam es zu einem Fehler. Zukünftig wird eine Meldung angezeigt, die auf das Problem hinweist. | Datenverbindungen |
Scheduleroberfläche verursacht Absturz | Nach dem Öffnen der Scheduleroberfläche konnte es in Ausnahmefällen zum Absturz des Management Studios kommen. | Scheduler |
Renderingfehler | Es wurde ein Fehler behoben, bei dem das Rendern in Logging und Workflow für unschöne Effekte sorgte. | Workflow Überwachung |
Import-Erfolgsmeldung bei ungültigem Pfad | War der Pfad zur Importdatei beim Compliance Check ungültig, wurde nach dem Import trotzdem eine Erfolgsmeldung angezeigt. Selbiges trat bei Verbindungsproblemen auf. | Compliance Check |
Dateieinschränkung für Import fehlerhaft | Beim Import von Compliance Check Dateien wurde nicht korrekt nach der Dateiendung eingeschränkt. | Compliance Check |
Asterisk ermöglicht Zugriff auf Passwörter | Es wurde ein Fehler behoben, bei dem die Eingabe eines Asterisks im Datenbanknamen es möglich machte nach das Passwort im ConnectionString zu ermitteln. Der Fehler trat in der ADO.Net Verbindung auf. | Datenverbindungen |
Initialisieren von Textdatenziel schlägt fehl | Wenn versucht wurde ein Textdatenziel zu initialisieren, das bereits initialisiert war (ergo die Datei war schon vorhanden) kam es zu einem Fehler. | Datenverbindungen |
DQ Server startet nicht | Wenn kein Zugriff auf den Einstellungsordner bestand, startete der DQ Server nicht. Zukünftigt wird dem Benutzer eine Meldung angezeigt, die ihn über das Rechteproblem in Kentniss setzt. | |
Berechtigungen werden nicht gespeichert | Bei bereits angelegten Datenquellen, -zielen und Workflows konnte es vorkommen, dass geänderte Benutzer im Berechtigungsbereich nicht ordnungsgemäß gespeichert wurden. | Datenverbindungen Workflow |
AD Offline nicht ausführbar | Es wurde ein Fehler korrigiert, der dafür sorgte dass die Aktivitäten für die Postalische Korrektur (+ erweitert) nicht mit einer AD Offline-Einstellung genutzt werden konnten. | RBO |
Name von Suchumgebung wird nicht übernommen | Beim Anlegen einer Suchumgebung wurde der Name nicht in das Datenzielsetting übernommen, wodurch es bei mehreren Suchumgebungen pro Ziel zu Namenskollisionen kommen konnte. | Datenverbindungen |
Löschen eines Workflows verursacht Absturz | Beim Kopieren einer Datenzielstruktur in einen Workflow konnte in besonderen Fällen nach dem Löschen ein Absturz des Management Studios beobachtet werden. | Workflow Datenvebindungen |
Benutzerdefinierte Feldähnlichkeiten ohne Namen verursachen Absturz | Wurde eine benutzerdefinierte Feldähnlichkeit angelegt, aber kein Name angegeben, führte dies zum Absturz des Management Studios. | Benutzerdefinierte Feldähnlichkeiten |
Eine invalide Feldähnlichkeit setzt alle außer Kraft | Passiert beim Laden der Feldähnlichkeiten bei einem Eintrag ein Fehler, so wurde keine Feldähnlichkeit geladen. | Benutzerdefinierte Feldähnlichkeiten |
Stabilisierung des FACT-Finder Worldmatch Speicherformats | Die Einlese- und Schreibelogik für FACT-Finder Worldmatch Datenziele wurde überarbeitet, damit Sonderzeichen den Import nicht behindern. | Datenverbindungen |
Workflowtestoberfläche gibt zu viele Zeilen aus | Beim Aufrufen eines Tests im erweiterten Modus wurden mehr (leere) Zeilen in der Ergebnistabelle angezeigt als das Ergebnis eigentlich beinhaltete. | Workflow |
Jahr wird nicht in den Segmenter übernommen | Beim Einstellen eines Zeitintervalls im Segmenter wurde das Jahr nicht korrekt übernommen. | Monitoring |
Optimierung der Ähnlichkeiten zwischen Weg und Straße | Die Postalische Korrektur berücksichtigte die Endungen Straße und Weg nicht als gleichwertig, wodurch es gerade bei kurzen Straßennamen zu NOFs kam. | RBO |
Transformation über Scheduler fehlerhaft | Bei einer Transformation via Scheduler gab es Probleme bezüglich der Logindaten. | Scheduler Transformation |
Feldwerte werden ab 255 Zeichen abgeschnitten | In der SQL-Skript Aktivität wurden Werte ab einer Feldlänger von 255 Zeichen abgeschnitten. | Workflow |
Probleme mit Leerwerten | In der SQL-Skript Aktivität kam es zu Fehlern, wenn weggeschrieben wurden, die leer waren. | Workflow |
Clearing Monitor speichert Passwörter im Klartext | In einem Setting für eine Clearing Monitor Verbindung wurde das Passwort im Klartext gespeichert. | Datenverbindungen |