Kostenloser Deep Dive "Gemeinsam den deutschen Mittelstand digitalisieren" am 26.10. Jetzt anmelden
Logo von Alligator Company Software GmbH

Alligator Company Software GmbH

Datenanalyse, Data Science, Data Engineering, Business Intelligence
5
1 Bewertungen
Zur Webseite Nachricht senden

Unternehmensdarstellung

Unsere Mitarbeiter sind erfahrene Berater mit Projekterfahrung von insgesamt über 150 Jahren. Wir haben seit 2002 mehrere Kimball Dimensional, Inmon 3NF und moderne Datavault Methoden erfolgreich begleitet. Wir bezeichnen uns auch als Full Stack DWH Entwickler, da wir neben den Backend Architekturen auch im Frontend Lösungen erarbeitet haben, die von Dashboards, Berichten und auch in den Bereich der Analytics reichen. Wir haben Datenintegrationsprojekte mit ETL Werkzeugen und verschiedenen Datenbanken realisiert. Seit kurzer Zeit verfolgen und unterstützen wir den Trend zum Analytics Engineering, der im Zuge der Modernisierung der Werkzeuglandschaft im Zuge der Digitalisierung und Modernisierung in der Cloud mehr auf gute Integration und Wartbarkeit setzt und damit die Daten und deren Behandlung mehr und mehr als Asset im Unernehmen festigt. Methoden aus dem Software Engineering werden auch im DWH und Business Intelligence immer wichtiger.
Tagessatz
790€/Tag
Jahresumsatz
1-2 Millionen
Mitarbeiter
8 Mitarbeiter insgesamt
Unternehmenstyp
Etablierter Dienstleister, Nearshoring Anbieter
Homepage
https://alligator-company.com/

Referenzen

IFRS-17 / DWH Data Integration

Hannover RE

Verifizierte Bewertungen

Kommunikation
Termintreue
Qualität

04/2020 - bis heute

Hannover

Ähnliches Projekt anfragen

Kommentar

Während der Zusammenarbeit haben wir Christian Drossart als kompetente und zuverlässige Persönlichkeit kennengelernt. Neben der fachlichen Expertise zeichnete er sich durch eine hohe Empathie, Hilfsbereitschaft und Teamfähigkeit aus. Selbst in stressigen Situationen bewies Herr Drossart eine hohe Belastbarkeit und blieb stets unkompliziert und freundlich. Deshalb wurde er auch von den anderen Mitarbeitern sehr geschätzt und trug maßgeblich zum Projektfortschritt/ -erfolg bei.

Projektbeschreibung

  • Data Integration with Informatica PowerCenter for the IFRS17 report.
  • Building Logging Template system
  • Introducing Initial Recognition and Bypass
  • Implementation of multi-step Protection Cover calculation
  • Development on the components Allocation, Projection, Risk Adjustment, Contractual Service Margin, Deferred Acquistion Costs and the Postings
  • Caring of the internal Wiki
  • Data integration development on the implementation of the automatisation of the QRTs of Solvency II
ELT
Data Engineering
SQL
Windows PowerShell
ETL
Data-Warehouse
Datenmanagement
Informatica PowerCenter
Business Intelligence
Oracle
Exasol
Microsoft Server

Data Vault Bank zentrale DB

HSH Nord Bank

Bewertung

Keine Bewertung vorhanden

06/2018 - 11/2018

Kiel

Ähnliches Projekt anfragen

Projektbeschreibung

Anforderungsanalyse und Umsetzung von Anforderungen im Data Vault. Und im udg Eclipse Generator. Umsetzung in Oracle Packages und Views. Arbeit im agile Scrum Umfeld.Analyse der Ergebnisse in komplexen SQL und PL SQL Statements.

Eingesetzte Werkzeuge:
Oracle 12.2 SQL, PL/SQL, Eclipse

Aufgaben:
Entwicklung, Modellierung und ETL von Data Vault Anforderungen für die zentrale

SQL
ETL
Bankwesen
Data Vault
Eclipse

Informatica, Datenbank Reiseunternehmen

TUI, Hannover

Bewertung

Keine Bewertung vorhanden

12/2018 - 04/2020

Hannover

Ähnliches Projekt anfragen

Projektbeschreibung

Anforderungsanalyse und Umsetzung von Anforderungen im Bereich eines Reisanbierters mit Hilfe von Informatica und DB2 LUW Objekten. Arbeit im agile Scrum Umfeld. Analyse der Ergebnisse in komplexen SQL. Umbau von ETL Strecken mit Hilfe des DBT Tools in SQL-Objekte und fVerwendung von Amazon AWS.

Eingesetzte Werkzeuge:
DB2 LUW, Informatica, DBT, Amazon Redshift, AWS S3, s3cmd, Pyhton, DBT

Aufgaben:
Entwicklung, Modellierung und ETL für die zentrale DB KundenDatenbank

ELT
SQL
ETL
Data-Warehouse
AWS
Datenmanagement
Data Vault
Informatica PowerCenter
Analytics Engineering
Cloudintegration
Scrum
Anforderungsanalyse
Snowflake
DB2

Informatica, Datenbank Reiseunternehmen

TUI, Hannover

Bewertung

Keine Bewertung vorhanden

09/2019 - 03/2020

Hannover

Ähnliches Projekt anfragen

Projektbeschreibung

Anforderungsanalyse und Umsetzung von Anforderungen im Bereich eines Reisanbieters.

AWS data pipeline in das Snowflake DWH mit Docker images auf Kubernetes Clustern zum Datentransport.

Evaluation von Infrastructure As Code mittels CloudFormation und Terraform. Serverless Services mittels Lambda.

Eingesetzte Werkzeuge: DB2 LUW, Informatica, DBT, Kubernetes, Docker, Snowflake, Amazon Redshift

Aufgaben: Entwicklung, Modellierung und ETL für die zentrale DB KundenDatenbank

Docker
Informatica
dbt
ETL
Data-Warehouse
Kubernetes
Amazon Redshift
AWS
Infrastructure as Code
Anforderungsanalyse
Snowflake
DB2

Aufbau Core Business Information Warehouse

Otto

Bewertung

Keine Bewertung vorhanden

08/2021 - 05/2023

Remote

Ähnliches Projekt anfragen

Projektbeschreibung

Aufgaben

System- und Business-Analyse neu anzubindender Quellsysteme, mit Beachtung von DSGVO Anforderungen und Governance-Prozessen. Konzeption und Implementierung der Datapipeline von der Quelle über den DataLake Ingest bis zur Integration in das Core DWH auf Basis eines DataVault Modellierungsansatzes. Entwicklung der Lösungsarchitektur und Einführung benötigter Komponenten in die Software Architektur. Projektbeteiligte 20 Personen

Eingesetzte Werkzeuge

Datenbanken Big Query & Exasol.

GCP PubSub, GCP Functions, GCP API Gateway, GCP Cloud Build.

DevOPS & terraform.

Aufgaben:

Entwicklung und Modellierung:

Datavault, dbtvault, Google BigQuery, Docker

Cloudintegration
Data-Warehouse
Terraform
Google BigQuery
DevOps
DSGVO
Business-Analyse
Exasol
GCP

Data Vault Online Handel

MyToys

Bewertung

Keine Bewertung vorhanden

03/2017 - 07/2017

Berlin

Ähnliches Projekt anfragen

Projektbeschreibung

Anforderungsanalyse und Erstellung von Konzepten. Data Vault Modellierung und ETL Im Bereich Online Handel. Umsetzung in Oracle Packages und View. Arbeit im agile Scrum Umfeld.

Eingesetzte Werkzeuge:
Oracle 12.2, SQL, PL/SQL

Aufgaben:
Entwicklungs, Modellierung und ETL von Data Vault Anforderungen im Online Handel

SQL
ETL
Data Vault
Anforderungsanalyse

BI Architektur, Data Vault und Cloud Migration

TUI InfoTec

Bewertung

Keine Bewertung vorhanden

01/2019 - 03/2020

Ähnliches Projekt anfragen

Projektbeschreibung

Architekturberatung und Umsetzung von DevOps/DataOps Mechanismen und Erneuerung der Data Pipeline in der Programmiersprache Python. Testszenarien definieren mit DBT.Scheduling der Batchverarbeitung mittels Airflow. CI/CD mittels Gitlab.

Eingesetzte Werkzeuge:
Docker, AWS S3, SQL, DB2 BLU, Amazon Redshift, Snowflake-DB, DBT, Airflow, Kubernetes, Batchverarbeitung, ELT/ETL, DevOps/DataOps, TDD, CI/CD, Gitlab

ELT
Docker
SQL
ETL
Kubernetes
GitLab
AWS
Data Vault
DataOps
DevOps
Business Intelligence
Snowflake
DB2
Python

DWH Modernization

E.ON

Bewertung

Keine Bewertung vorhanden

05/2020 - 07/2021

München

Ähnliches Projekt anfragen

Projektbeschreibung

dbtvault data integration and data mart modeling

Data Lake
ELT
Data Engineering
SQL
Cloudintegration
Data-Warehouse
Datenmanagement
Data Vault
Business Intelligence
Snowflake
DataOps
Analytics Engineering

BI Architekt und Data Vault Modellierung

Talanx - HDI Global SE

Bewertung

Keine Bewertung vorhanden

04/2017 - 07/2018

Ähnliches Projekt anfragen

Projektbeschreibung

Architekturverantwortung, Modellierungsrichtlinien und Beratung der Modellierer im Umsetzungsprojekt. UDG Data Vault Generator XText und Java. IGC Glossar und Mapping Transporte. IDA logische Modellierung und Umsetzung in Data Vault. Testszenarien für Batch-Jobs entwickeln mit DBFit/Fitnesse.

Eingesetzte Werkzeuge:
UDG Data Vault, Oracle, Batchverarbeitung, ELT/ETL TDD

Xtext
Data Vault
Business Intelligence

Informatica PowerCenter Data Vault Automation

Alligator Company Software GmbH

Bewertung

Keine Bewertung vorhanden

01/2016 - 04/2017

Ähnliches Projekt anfragen

Projektbeschreibung

Für einen Verlagskonzern wurde eine Generatorlösung für Datavault entwickelt. Die Datenmodelle aus dem PowerDesigner und entsprechende Informatica Mappings dienten dabei als Basis für die Generierung der Mappings für Hub, Link und Satelliten im Zielmodell, das aus dem PowerDesigner XML ausgelesen wurde. Das Tool wurdei von mir in Java entwickelt und an den Kunden ausgeliefert.

Aufgaben:
Entwicklung und Architektur

Eingesetzte Werkzeuge:
Informatica PowerCenter, Java, XML, PowerDesigner

Java
Data Vault
Informatica PowerCenter
XML

PL/SQL Entwicklung und Datenanalyse

Josef Witt GmbH

Bewertung

Keine Bewertung vorhanden

08/2020 - 10/2020

Ähnliches Projekt anfragen

Projektbeschreibung

Im Migrationsprojekt wurden Datenanalysen durchgeführt und PL/SQL Routinen für die Migration der Daten zu einer Firmenzusammenführung der operativen Systeme erstellt.

Aufgaben:
Entwicklung

Eingesetzte Werkzeuge:
Oracle, PL/SQL

SQL
Oracle PL/SQL
Migration
Datenanalyse

Snowflake, DBT im Reiseunternehmen

TUI, Hannover

Bewertung

Keine Bewertung vorhanden

12/2019 - 03/2020

Hannover

Ähnliches Projekt anfragen

Projektbeschreibung

Einführung von DBT auf Snowflake in AWS. Airflow Scheduler und Python Operator für DBT. Das bestehende, seit 10 Jahren laufende Data Warehouse sollte im Zuge der Cloud-Strategie erneuert und in die AWS Cloud migriert werden. Die Lift-and-Shift Strategie mit Informatica (dem bestehenden ETL Werkzeughersteller) wurde aufgrund eines PoC verworfen. Mittels Python basierten Data Pipelines werden die Daten in eine persistent Staging Area mit JSON Strukturen in Snowflake integriert. Im Zugriff werden External Table Definitionen als View in die S3 Buckets generiert. Auf Basis dieser Quelldaten werden die Schnittstellen technisch historisiert. Diese Modelle werden per Python und Ninja generiert. Anschließend wird per DBT Modelle das Datavault Modell erzeugt und im Ausgang sogenannte Flatmarts generiert, die für das Frontend bereitgestellt werden. Die Orchestrierung erfolgte mit Airflow und das Deployment wurde in Kubernetes Cluster vorgenommen. Mittels Gitlab wurden etnsprechende CI/CD Pipelines entwickelt, die die Docker-Images für die Data Pipeline, die DBT-Dags und die entsprechenden DBT-Projekte entsprechend koordinierte, um Entwickler- und Integrationstests auszuführen. Die Programmierung der Python Pipelines und die Generierung der PSA waren meine Aufgaben.

Eingesetzte Werkzeuge:
DB2 LUW, DBT, AWS S3, s3cmd, Pyhton, Jinja

Aufgaben:
Entwicklung, Modellierung und ELT für die zentrale DB KundenDatenbank

ELT
Informatica
ETL
Frontend
Kubernetes
AWS
Snowflake
DB2
Python

Data Vault Modellierung und ELT

VHV Hannover

Bewertung

Keine Bewertung vorhanden

07/2016 - 12/2016

Hannover

Ähnliches Projekt anfragen

Projektbeschreibung

Data Vault Modellierung mit MID Innovator und SAS-DI. Organisation und Beratung des Review-Prozesses. Beratung der Modellierer im Umsetzungsprojekt. Erstellung von DB2 Data Mart Views und Definition von Business Vault Regeln im BPMN.

Eingesetzte Werkzeuge:
MID Innovator, DB2, SQL

Aufgaben:
Entwicklungs- und Modellierungsrichtlinien, Modellierung von Datenmodellen im DWH-Core

ELT
BPMN
Data Vault
Mid Innovator

Data Warehouse Automation Exasol & Datavault Builder

Bewertung

Keine Bewertung vorhanden

05/2021 - 06/2022

Ähnliches Projekt anfragen

Projektbeschreibung

Im Data Warehouse wurde die Datenmodellierung mittels Datavault Builder erstellt. Als Datenbank wurde Exasol angewendet. Für ETL/ELT Prozesse wurde DBT benutzt.

Eingesetzte Werkzeuge:

dbt
Datavault Builder
Exasol

Datavault Automation mit DBT auf Snowflake mit Airflow, DataOps

E.ON

Bewertung

Keine Bewertung vorhanden

08/2020 - 09/2020

München

Ähnliches Projekt anfragen

Projektbeschreibung

Review und Beratung zu den Konzepten bei der Datavault Modellierung, Automation und DataOps. Vorschläge zu Verbesserungen in Architektur und Umsetzung mittels DBT, Airflow, Docker, Kubernetes und Snowflake.

Eingesetzte Werkzeuge:
Datavault-Builder, Snowflake, DBT, Kubernetes, Docker, Azure DataOps, Airflow

Aufgaben:
Review und Beratung

Azure
Docker
Kubernetes
Snowflake
DataOps

BI Architekt und Data Vault Modellierung

HSH Nordbank

Bewertung

Keine Bewertung vorhanden

06/2018 - 01/2019

Ähnliches Projekt anfragen

Projektbeschreibung

Architekturberatung im Umsetzungsprojekt. UDG Data Vault Generator XText und Java. Physische DB Optimierung auf Oracle.

Eingesetzte Werkzeuge:
UDG Data Vault, Oracle, Batchverarbeitung, ELT/ETL, TDD

ELT
ETL
Xtext
Data Vault
Business Intelligence
Oracle

DatavaultBuilder Versicherung Modellierung und Implementation

Uelzener Tier

Bewertung

Keine Bewertung vorhanden

10/2017 - 03/2020

Ähnliches Projekt anfragen

Projektbeschreibung

Im Enterprise Data Warehouse habe ich die Datenmodellierung mittels Datavault Builder erstellt und die Beladungen entsprechend verwaltet. Das Datenmodell wurde nach fachlichen Vorgaben des Business Analysten umgesetzt und umfasste Vertrag, Schaden, Kunde und Zahlungen. Besonderheit war hierbei das bi-temporale Quellsystem, das entsprechend im Datavault mit versionierten Hubs realisiert wurde. Basierend auf dem so definierten Ausgangsmodell habe ich die SQL Ausgangsviews für das Frontend Qlik erstellt und die Performance Optimierungen auf dem SQLServer durchgeführt. Dabei wurden die Ausführungspläne analysiert und entsprechende Maßnahmen wie Indexierung und Businessvault Materialisierungen angewendet. Außerdem wurden betehende Talend-ETL abgelöst und an die neuen Ausgangsstrukturen des EDWH angepasst.

Aufgaben:
Entwicklung

Eingesetzte Werkzeuge:
Datavault Builder, SQLServer, SQL, GIT, Qlik, Talend

SQL
ETL
Frontend
Git
Versicherungsbranche
Datenmodellierung
Talend

Modernisierung Analytics Plattform

Uniper

Bewertung

Keine Bewertung vorhanden

03/2021 - 05/2021

Remote

Ähnliches Projekt anfragen

Projektbeschreibung

Aufgaben

Steuerung von Entwicklungsthemen als Lösungsarchitekt.

Entwicklung einer Datenstrategie in der Cloud.

Eingesetzte Werkzeuge

Azure, DataOps

Azure
Datenstrategie
DataOps

DWH DataOps, Architektur und Einführung Datavault Builder und Exasol

Vector.com, Stuttgart

Bewertung

Keine Bewertung vorhanden

06/2020 - 03/2021

Stuttgart

Ähnliches Projekt anfragen

Projektbeschreibung

Anforderungsanalyse und Umsetzung von Anforderungen im Bereich eines Automobilzulieferers im Bereich der Embedded Softwareentwicklung. Die Einführung der DataOps Methoden in Microsoft Azure mittels Exasol, Datavault Builder. Beratung und Training zu Modellierung, Entwicklungsmethoden und Kostenanalysen zur Einführung einer neuen Datawarehouse Infrastruktur und Entwicklung. Eingesetzte Werkzeuge: Datavault-Builder, Exasol, DBT, Kubernetes, Docker, Azure DataOps Aufgaben: Konzeption, Beratung und Training zur Einführung der Infrastruktur und Entwicklungsmethoden

Eingesetzte Werkzeuge

Datavault-Builder, Exasol, DBT, Kubernetes, Docker, Azure, DataOps Aufgaben: Konzeption, Beratung und Training zur Einführung der Infrastruktur und der Entwicklungsmethoden

Azure
Docker
Kubernetes
Anforderungsanalyse
DataOps
Exasol

Data Vault DWH-Projekt

VHV Hannover

Bewertung

Keine Bewertung vorhanden

05/2016 - 07/2016

Ähnliches Projekt anfragen

Projektbeschreibung

Unterstützung und Beratung bei der Einführung der MID BI Solution
- Coaching der Modellierer zum optimalen Einsatz des Werkzeugs Innovator unter Ausnutzung vorhandener Automatismen, Modelltransformationen und Prüfungen Konzeption und Entwicklung weiterer Automatismen für Kundenbedarf
- Innovator-Funktion zum Import von Mapping- Informationen zu vorhandenen Berichten in Form von Modellverknüpfung zwischen Attributen innerhalb des Datenmodells

Eingesetzte Werkzeuge:
MS SQL Server 2016, Data Vault 1.0 in Kombination
mit bitemp. Historisierung, Innovator v12.3 mit neuen Java-Engineering-Aktionen

Aufgaben:
Landschaft Bodenkreditbank, Münster Integration verschiedener Datenquellen (u.a. Hostdaten) in einer MS SQL Server 2016 Plattform unter Verwendung eines modifizierten DataVault 1.0 Vorgehen

SQL
Java
Data Vault
Business Intelligence
Schulung

Dbt-exasol Adapter, POC SBK / BI Architektur und DWH Modernisierung

SBK, München

Bewertung

Keine Bewertung vorhanden

06/2019 - 12/2019

München

Ähnliches Projekt anfragen

Projektbeschreibung

Durchführung POC und Beratung DWH Modernisierung mit DBT und Datavault Builder auf der Exasol Datenbank. Programmierung des DBT-Adapters für Exasol in Python und Jinja. CI/CD mittles Gitlab.

Eingesetzte Werkzeuge:

Exasol, DBT, ELT, Docker, Gitlab, CI/CD, VisualStudio Code, Batchverarbeitung, ELT/ETL, DevOps/DataOps, TDD, Python

Dbt-exasol Adapter, POC SBK Beim Vorhaben der Modernisierung des bestehenden Data Warehouse sollten Analytics Engineering Methoden wie git, CI/CD und ELT auf Basis der bestehenden Exasol Analytics Datenbank eingeführt werden. Examplarisch wurden die Abläufe hierfür im Testsystem des Exasol DWH, mittels DBT und gitlab in der Entwicklung der ELT Batchverarbeitung und einem Beispiel Datamart umgesetzt. Die entsprechende Entwicklungsumgebung für Python und DBT wurde mittels docker und docker-compose bereitgestellt. Der Exasol-Adapter für Exasol wurde hierfür in Python und Jinja entwickelt. Mittels der Datenmodellierung im MID Innovator wurden die entsprechenden Datavault Komponenten aus einem Geschäftsobjektmodell als DBT-Modelle generiert, so dass die Datenintegration über Hub, Satellit und Link anhand der Datavault Muster generiert werden konnte. Außerdem wurden Supernova Views generiert, die das Datavault Integrationsmodell wieder als Entitäten inklusive der Versionierung als DBT-Modelle darstellten. Im Ergebnis konnten dann die Geschäftsregeln und ausleitenden Datamart Modelle per DBT-Modelle in SQL entwickelt werden. Die Modelldaten, Metadaten und die DBT Modell inklusive der SQL-basierten DBT Modelle können in gitlab versioniert werden. Durch die Auswahl der Elemente im MID-Geschäftsobjektmodell kann die Generation auch gezielt gefiltert werden, so dass inkrementelle und parallele Entwicklung mit mehreren Entwicklern und entsprechenden Features-Branches im gitlab vorgenommen werden können. Am Sprintende können dann die Featurebranches wieder zusammengeführt werden, um das Sprintrelease zu erzeugen. Eingesetzte Werkzeuge: Exasol, VisualStudio Code, Dbeaver, DBT Aufgaben: Entwicklung, Modellierung und ELT von Datenmodellen im DWH

ELT
SQL
Data-Warehouse
GitLab
Business Intelligence
DataOps
Entwicklungsumgebungen
Exasol
Analytics Engineering
Mid Innovator
Python

DWH 3.0

VHV Versicherung

Bewertung

Keine Bewertung vorhanden

01/2016 - 01/2017

Hannover

Ähnliches Projekt anfragen

Projektbeschreibung

Unterstützung bei der Einführung der MID BI Solution. Beratung zum Einsatz von Modellierungsmethoden und –werkzeugen, im Speziellen bei den Punkten:
- modellgetriebenen Vorgehensweisen und passender Modellierungen für Erfassung, Spezifikation und Realisierung von Anforderungen eines DWH
- Daten- und Schichtenarchitektur des DWHs
- Coaching der Entwickler zum optimalen Werkzeugeinsatz des MID Innovator Information Architect unter Ausnutzung vorhandener Automatismen, Modelltransformationen und Prüfungen und Generatoren
- Einbindung des Innovators in die VHV-IT-Infrastruktur und –Rechteverwaltung
Konzeption und Entwicklung weiterer Automatismen:
- Export von DataVault-Mapping Metadaten an SAS DataIntegrator
- Erweiterung der Datenbank-DDL-Generierung zur Erstellung von Table-Spaces nach VHV Architekturrichtlinie
Planung und Unterstützung bei der Migration des
MID Innovator Information Architect von v12.3.1 auf v13.1.2

Eingesetzte Werkzeuge:
Data Vault 2.0, DB2 11.0+ mit Einsatz der Blu-
Acceleration, SAS DI und Talend, Innovator, Eclipse, FlyWay, JMeter

Aufgaben:
Entwicklungs, Modellierung und ETL von Data Vault Anforderungen, Werkzeugeinführung und Datenarchitektur

Datenarchitekturen
Docker
ETL
Data-Warehouse
Jmeter
Kubernetes
Data Vault
Talend
Versicherungsbranche
Infrastructure as Code
Eclipse
Anforderungsanalyse
Business Intelligence
IT-Infrastruktur
Schulung
Migration
DB2
Mid Innovator

Data Vault Bank Regulator

Berenberg Bank

Bewertung

Keine Bewertung vorhanden

07/2017 - 04/2018

Hamburg

Ähnliches Projekt anfragen

Projektbeschreibung

Anforderungsanalyse und Umsetzung von Business Vault Anforderungen im Data Vault. Anpassung des bestehenden Data Vault. Bereitstellung von Daten für die regulatorische Bais Software. Umsetzung in Oracle Packages und Views. Arbeit im agile Scrum Umfeld.Eingesetzte Melde Software BSM. Projektvorgehen nach SAFE.

Eingesetzte Werkzeuge:
Oracle 12.2, SQL, PL/SQL

Aufgaben:
Entwicklungs, Modellierung und ETL von Data Vault Anforderungen für regulatorische Bank Meldungen

SQL
ETL
Bankwesen
Scrum
Data Vault
Oracle

Vertriebsreporting Reiseveranstalter

Firma TUI AG

Bewertung

Keine Bewertung vorhanden

09/2019 - 03/2020

Ähnliches Projekt anfragen

Projektbeschreibung

Im bestehenden DB2 Data Warehouse wurde mittels Informatica PowerCenter das
Vertriebsreporting unterstützt. Auswertungen zu Buchungsstatistiken und verschiedene
Datamarts wurden ergänzt und neu erstellt.

Eingesetzte Werkzeuge:
DB2 UDB, DB2 BLU, SQL, Informatica PowerCenter, UC4 Scheduling

Aufgaben:
Entwicklung, Analyse, Dokumentation

SQL
Data-Warehouse
Informatica PowerCenter

ZDP, HSH NORDBANK

HSH Nord Bank

Bewertung

Keine Bewertung vorhanden

04/2018 - 06/2018

Kiel

Ähnliches Projekt anfragen

Projektbeschreibung

Review von Maßnahmen für die Redesignphase einer zentralen Datenverteilungsplattform und Review des DataVault-Methodik. Empfehlung weiterer Massnahme. Entwurf und Konzeption von Lösungsansätzen für Problemfelder. Unterstützung des Architekten im Architekturteam. Klärung von Fragen und Präzisierung der Architekturvorgaben. Entwicklung von Lösungsansätzen für Konzeptionsprobleme, z.B. Multi-Active-Sat

Eingesetzte Werkzeuge:
Oracle 12.2 SQL, Eclipse

Aufgaben:
Entwicklung & Modellierung und Data Vault Datenarchitektur

SQL
Data Vault
Eclipse

DWH 3.0 VHV, Vereinigte Hannoversche Versicherung

VHV Versicherung

Bewertung

Keine Bewertung vorhanden

02/2017 - 12/2017

Ähnliches Projekt anfragen

Projektbeschreibung

Unterstützung bei der Anpassung der MID BI Solution.
Beratung und Coaching zum Einsatz von Modellierungsmethode und –werkzeug, im Speziellen bei den Punkten:
- modellgetriebenen Vorgehensweisen und passender Modellierungen für die Erfassung, Spezifikation und Realisierung von Anforderungen eines DWH
- Daten- und Schichtenarchitektur des DWHs
- Coaching der Modellierer und Entwickler zum optimalen Einsatz des Innovators als Werkzeug unter Ausnutzung vorhandener Automatismen, Modelltransformationen und Prüfungen
- Konzeption und Umsetzung eines auf Kundenbedarf optimierten Modellierungsvorgehens und gleichzeitige Anpassung der Automation an die neue Ziel- Architektur: die Datenintegration wird auf Talend EE mit eingebettetem ELT-SQL umgestellt.
Konzeption und Anpassung bzw. Neuentwicklung von Automatismen:
- Generierung VHV-spezifischer DV2.0-DML-SQL für Datavault Hub, Link, Sat
- RefTable + RefTable-Sat
-Status-Sat für Hub/Link & RefTable
- Generierung von Talend-DV-Versorgungsjobs mt Hilfe von Talend-JobScript & Einbettung von DV- DML-SQL (siehe Punkte vorher)

Eingesetzte Werkzeuge:
Lösung: Data Vault 2.0, IBM DB2 BLU, SAS DI, Talend, Flyway.
Entwicklungsprozess: Jira, git, Innovator, git, FlyWay, Jmeter.
Generator-Entwicklung: Innovator, Xpand/Xtend, Eclipse, Java, eclEmma, maven

Aufgaben:
Entwicklungs, Modellierung und ETL von Data Vault Anforderungen für regulatorische Bank Meldungen

ELT
SQL
ETL
Data Vault
Versicherungsbranche
Business Intelligence
Schulung
Apache Maven
Talend

Projekt SPoT

NORD/LB – Die Norddeutsche Landesbank

Bewertung

Keine Bewertung vorhanden

08/2013 - 09/2019

Ähnliches Projekt anfragen

Projektbeschreibung

Die NORD/LB baut eine Datendrehscheibe auf. Ziel ist es, alte Hostapplikationen zu ersetzen
und eine neue Belieferungsstrecke für den SAP Bank Analyzer 8.0 aufzubauen. Der Bank
Analyzer wird für Basel III benötigt.

Eingesetzte Werkzeuge:
DB2 9.7/10.2, IBM DataStage 8.7, IBM Clearcase/-quest 7.1

Aufgaben:
Dokumentation, Programmierung, Test- und Releasemanagement, Deployment

Bankwesen
DB2

Business Objects DS und Universe

IT.NRW

Bewertung

Keine Bewertung vorhanden

05/2017 - 09/2017

Ähnliches Projekt anfragen

Projektbeschreibung

Im bestehenden Data Warehouse wurden neue ETL Strecken mittels BODS eingebaut, die das Datenmodell gemäß Reportanforderung befüllt haben. Darauf aufsetzend habe ich das Business Objects Universum zur Ad-hoc Analyse und auch eigene Reports zur fertigen Auslieferung erstellt. Zur Performance Optimierung der bestehenden ETL Strecken wurden Ausführungsführungspläne analysiert und SQL entsprechend angepasst beziehungsweise ETL umgebaut.

Aufgaben:
Entwicklung

Eingesetzte Werkzeuge:
BODS, Oracle, BusinessObjects Reports

ETL

BI Architekt und Data Vault Modellierung

VHV

Bewertung

Keine Bewertung vorhanden

09/2015 - 03/2017

Ähnliches Projekt anfragen

Projektbeschreibung

• Modellierung E-DWH und Data Mart mit MID Innovator
• Data Vault Modellierung und Automatisierung.
• DB2 Column Store Datenbank DB2 BLU.
• OBIEE Frontend Reporting.
• TDD und DataOps/DevOps für MID Automation und
SAS-DI / Talend Batch-Jobs

Eingesetzte Werkzeuge:
MID Innovator, DB2 BLU, SAS-DI, SAS, OBIEE, Batchverarbeitung, ELT/ETL, DataOps/DevOps, TDD

ELT
ETL
Frontend
DevOps
Data Vault
Business Intelligence
DB2
DataOps
Mid Innovator
Talend

Schwerpunkte

Data Engineering
Data-Warehouse
Data Vault
Datenmodellierung
Business Intelligence
Analytics Engineering
Datenanalyse

Weitere Fähigkeiten

ELT
SQL
ETL
dbt
Datenmanagement
DataOps
Datenintegration
Git
Software Engineering
Snowflake
Performanceoptimierung
Exasol
Python
dbtvault
+2

Branchen

Versicherungsbranche
0 - 10 Projekte
Bankensektor
0 - 10 Projekte
Automobilindustrie
0 - 10 Projekte
Einzelhandel
0 - 10 Projekte

Dein persönlicher Ideen- und Beratungsassistent

Nutze unseren KI-Bot, um gezielt Fragen zu diesem Dienstleister zu stellen, Inspiration für dein Projekt zu sammeln oder passende Alternativen zu finden. Schnell, einfach und rund um die Uhr für dich da!

de_DEGerman

Nachricht senden

Stelle hier anonym deine Frage an das Unternehmen, z.B. nach Verfügbarkeiten, Sätzen und Referenzen.

An welche Mailadresse sollen wir die Antwort senden? Wir geben diese nicht an das Unternehmen weiter.