Über mich

Direkte und offene Kommunikation, persönliche Integrität und Flexibilität zeichnen mich neben meinem sehr breiten IT-Know-how aus.

Softskills
 - Analytisches Denkvermögen
 - Strukturierter Vorgehen
 - Gute Kommunikationsfähigkeit
 - Breites technisches Verständnis

Einsatzgebiet
Mein Einsatzgebiet erstreckt sich über die gesamte DACH-Region. Reisen im Auftrag des Projektgebers sind zeitlich beschränkt auch weltweit möglich.

Referenzen
Zu den namhaften Unternehmen für die ich bisher tätig war, gehören z.B.
 - IBM,
 - Metro,
 - Kaufhof,
 - ORACLE,
 - Deutsche Bank,
 - Hapag Lloyd,
 - Henkel AG und andere.

Aufgrund von GDPR / DSGVO ist es mir nicht erlaubt persönliche Referenzen zu nennen. Im Bedarfsfall kann ich aber den Kontakt herstellen.

ERFAHRUNGEN (rückwärts chronologisch)

Teilprojektleitung bei RZ-Migrationen

Sicherheitsbehörde (remote) - 2021-heute

Verantwortlich für die Datenbanken- und Applikations- Migrationen, von der Ist-Aufnahme bis hin zur Inbetriebnahme an den neuen Standorten und der Anbindung aller benachbarten Behörden mit diversen Schnittstellen. Erstellung aller notwendigen Dokumentionen und regelmäßigen Präsentationen gegenüber der hohen Führungsebenen.


Parallel zu den aktuellen Projekten, Selbststudium - Benchmark BI-Tools - 2021

Aus Eigeninteresse führe ich zur Zeit einen Benchmark Test durch, um die BI-Tools Cognos Analytics, MicroStrategy, Tableau und Power-BI gegenüberzustellen. Als Basis nutze ich die Corona Zahlen des Robert Koch Instituts (RKI). Diese stehen über eine API beim RKI zum Download bereit und werden in meiner Benchmark-Umgebung automatisiert mittels Python-ETL-Jobs täglich aktualisiert.

Angewandte Technologien: DB2 11.5 und Cognos Analytics 11.1.6 auf Centos-Linux, MicroStrategy2020 Cloud, Power-BI 2.88 auf Windows10, Tableau-Desktop2020.x auf OSX. OpenLDAP-Server auf Centos-Linux, Python3.


Portierung des zentralen Capacity-Reporting Tool zu IBM Cognos Analytics  

IBM DACH (remote) - 2018-2020

Auf Basis meiner Empfehlung wurde der OpenSource-basierende Reporting Teil von „BlueCap“ (s.u.) zu IBM Cognos Analytics (CA) portiert. Hierzu wurde auf die neueste Version CA 11.1.x gesetzt, welche von mir auf RedHat installiert und eingerichtet wurde. User-Authorization wurde via LDAP-groups realisiert. Das Einbinden („Connecten“) der verschiedensten Data Sources sowie das Erstellen der DataSets (Cognos: Data Modules), diverser BI-Reports und die Presentation mittels CA-Dashboards gehörte zu meinen Aufgaben. Auch wurden die bisherigen ETL-Scripte (Shell, Perl) mit Python3 angepasst.

Über den Projektlaufzeit wurden immer wieder neue Anforderungen umgesetzt, CA-Erweiterungen/Updates eingespielt etc..
Dabei habe ich ein kleines Team ausgebildet, welches letztendlich diese Tätigkeit übernommen hat. Noch heute unterstütze ich die Kollegen telefonisch.

Zur TeamSteuerung wurde Atlassian’s Trello (ähnlich Jira) verwendet und mit Confluence ein internes „Wiki“ aufgebaut.

Angewandte Technologien: RedHat Linux, Cognos Analytics 11.1.6, Shell,Perl, Python3, Javascript, DB2 BLU, 3NF, DataVault, Git/GitLab, LDAP, Atlassian’s Trello, Confluence.


Portierung des DWHs „BlueCap“ von AIX zu RedHat (RHEL RedHat Linux).  

IBM DACH (remote) - 2018

Es wurde beschlossen BlueCap’s DWH (s.u.) und Applikation in ein anderes Netzwerk-Segment zu verlegen und die Applikationen und Scripte, DB2s 11.x und 10.x (incl. allen Procedures), Apache Webserver, etc., zu Redhat RHEL (Linux) zu portieren. Die grösste Herausforderung war hier das Verlagern des Data Lakes und die vielen Datenquellen wieder zu "connecten" (Security, Firewall, etc.).
Dies wurde von einem kleinen Team (5 MAs) unter meiner technischen Leitung umgesetzt.
In weiteren Schritten wurden diverse Optimierungen vorgenommen. Es wurde die DB2 auf DB2 BLU mit Column-Oriented-Tables (COT) umgestellt und vorhandenen Materialized-Query-Tables (MQT) entsprechend angepasst. Hierdurch konnten wir eine erhebliche Perfomance-Steigerung erzielen.
Das Erstellen von Data-Marts , für die Abgrenzung einzelner Fachbereiche, wurde mit den strengen Regeln des GDPR/DSGVO notwendig.

Für die agile Projektsteuerung wurden Atlassian’s Tools eingeführt. Trello (ähnlich Jira) zur Teamsteuerung und Confluence zur Dokumentation.

Angewandte Technologien: RedHat Linux, DB2 BLU 11.5, DataVault, 3NF, DataVault, Trello, Confluence.

Projektleitung und Service Management Support,

IBM DACH (remote) - 2014-2020 (Parallel zu all den andere Aufgaben)

Unterstützung der Service- und Key Account Manager in allen Aspekten von Virtualisierungs- und Kapazitätsfragen (BI-Reports).
BlueCap (siehe unten, das von mir konzipierte DWH, Data Mining & Reporting-Tool) wurde zum zentralen Kapazität-Planungs-Tool für IBM-DACH, wodurch ich zum zentralen Ansprechpartner für das DACH Capacity- & Controlling-Team wurde.
Ständige Anpassung und Erweiterung von Infrastruktur- und Kapazitätsberichten. Steuern eines Entwicklungsteams zur Weiterentwicklung des DWH „BlueCap“.

Als technischer Projektverantworlicher wurde ich beauftragt eine neue, DACH-weite, Infrastruktur zu planen und mit einem Team aufzubauen. Hierzu gehörte u.a. DB2- und die Netzwerkplanung (VLANs, Firewall rules), Empfehlung der Server-Landschaften und die Auswahl der Middleware. Die Umsetzung erfolgt auf Basis von agilen Vorgehensweisen unter Anlehnung Scrum ähnlicher Prozesse.

Angewandte Technologien: IBM-System-P und VMware Virtualisierungen, AIX und Redhat Linux. DB2 10.x - 11.x


PlanetReseller AG, DE/CH, im Jahr 2017

Parallel zu den Hauptprojekten, Unterstützung eines Start-Up-Unternehmens bei der Planung und Einrichtung einer IT-Infrastruktur. Evaluierung eines Open-Source-CRM-Systems mit anschliessender Implementierung von 1CRM in einer Cloud-Umgebung.

Angewandte Technologien: Komplett basierend auf 1CRM Cloud Lösung.


IBM DE/CH (remote) – 2014-2016

Einen Auftrag zur Konzipierung eines agilen Data-Warehouses (DWH) erhalten, sodass es später auch ein offizielles IBM Tool für die Konfigurations- und Kapazitätsberichterstattung werden kann. Ziel war es, eine Vielzahl von unterschiedlichen Datenquellen (s.u. "Korrelierte Datenquellen“) zusammenzubringen um zu einem aussagekräftigen Kontext zu kommen (Data Analyse). Hierzu wurden die Daten in einem Data Lake zur weiteren Verarbeitung zusammengeführt - unter Vermeidung von Redundanzen. Strukturierte Daten (z.B. aus anderen DBs) wurden direkt in das DWH übertragen oder hinein gelinkt. Hier mussten diverse ETL-Prozesse(ETL-Pipes) definiert werden.
Bei der Erstellung des Konzepts wurde zunächst geprüft, welche Datenquellen von Interesse sein könnten. Dies beinhaltete umfangreiche Datenanalysen (Data Analyse) jeder Art von Quelle und Datenmodellen.
Überprüfen der Netzwerkabhängigkeiten für spätere Firewall-Einstellungen, Sicherheit oder alternativen Zugangslösungen.
Entwickeln der Datenmodelle und Schemata gemäss Data Vault (3NF) und Datenbankroutinen in Form von komplexen SQL-Anweisungen in Stored Procedures.
Migration meiner alten Lösung (siehe unten) von MySQL zu DB2 und Einführung von Materialized Query Tables (MQT).
Zur Berichterstellung habe ich Tivoli Common Reporting incl. JAZZ etc. (Cognos) eingerichtet (incl. Cognos-Server) und auch Cognos Mobile getestet. Das Erstellen von diversen Reports war hier natürlich auch inkludiert.
Am Ende habe ich diese Lösung "BlueCap" genannt. Sie wurde zu einem offiziellen IBM Tool und erhielt DACH-weite Akzeptanz.

Mit BlueCap ist IBM nun in der Lage, ihre virtuelle Infrastruktur (einschließlich ihrer Cloud-Installationen) zu optimieren, die System-Ps, System-Xs (ESXs) und Storage-Systeme besser zu nutzen und verwaiste Ressourcen aufzufinden und freizugeben. Eine eingeschlossene Trendanalyse weist auf bevorstehende Engpässe hin. Einige Customer-Accounts verwenden diese Daten auch für ihre Kundenberichte.

Projekt- und technische- Dokumentationen wurden von mir zielgruppenorientiert - auf Basis der IBM internen Vorgaben - erstellt.

Schließlich übergab ich das Tool einigen IBM Mitarbeitern, die bis heute noch unter meiner technischen Leitung stehen.

Korrelierte Datenquellen:
Tivoli Data Warehouse (TDW), Tivoli Productivity Center and IBM Spectrum Control (TPC), Tivoli Decision Support for MVS (TDS (z/os DB2)), IBM internal asset DB and IBM internal configuration DBs (ORACLE-DBs), VMware-VCenter’s SDK-API, System-P’s HMCs CLI und REST-API, Round Robin Databases (RRD) and diverse files formats (xls, csv, ods html)

Angewandte Technologien: DB2, DB2 federated connect for ORACLE and z/os DB2, (DB2- SQL and -stored procedures), MySQL and Procedures, DataVault, 3NF, Tivoli Common Reporting (Cognos), AIX, und diverse Linux-Derivate, Perl, Shell, PHP,
javascript (basic), LDAP, SAS, SSH-Tunneling, LPAR2RRD, …


IBM DE (Frankfurt / remote) – 2013-2014

Unterstützung des IBM-„Deutsche Bank"-Teams. Entwurf und Design einer ORACLE-Grid Infrastruktur auf Basis von OL (ORACLE (Enterprise) Linux).
Evaluieren und Testen von OpenStack für eine mögliche Verwendung.

IBM DE (Ehningen / remote) – 2012-2013

Unterstützung bei diversen Outsourcing-und Transition Projekten. Erfassen der IT-Infrastrukturen der Kunden, Re-design und Integration in die virtuellen Technologien der IBM. Anschliessende Übergabe der Projekte an die IDCs für den täglichen Betrieb.
Parallel dazu wurde die Entwicklung des DWHs "BlueCap" (siehe unten) gemäss Data Vault weiter voran getrieben, um auch die Virtualisierung der Konfigurationsparameter und Kapazitätsdaten zu ermöglichen.

Angewandte Technologien: IBM-Power Systeme, HMCs, AIX und LINUX. VMware, VCenter, Linux und Windows.

IBM DE (Ehningen / remote) – 2009-2011

Konzeption, Test und Einsatz von virtualisierten Technologien.

Angewandte Technologien: IBM-Power Systeme, AIX und LINUX.

IBM DE (Ehningen / remote) – 2006-2008

Konsolidierung und Schließung eines Rechenzentrums. Datenerfassung und Auswertung zur optimierten Wiederherstellung der Infrastruktur in einem anderen Rechenzentrum. Entwurf einer einfachen Routine, um wiederkehrende Datenerfassung zu automatisieren und manuelle Inkonsistenzen durch einen zentralen Datenpool zu verhindern. Diese Routine wurde später "BlueCap" genannt, s.o.).

Aura- Bauelemente GmbH – 2002-2004

Aufbau eines Outbound-Call Centers für mehr als 200 Call Agents. Auswahl der HW- und SW-Lösung mit VoIP und Anbindung an das Enterprise-CRM-System. Später, Übernahme der Leitung des Call Centers mit Umsatzverantwortung.

Verwendete Technik: CallCenter-Lösung der Firma INCA AG (Krefeld), MySQL auf Debian-Linux.

MetroAG (Düsseldorf) – 1998-2002

Verantwortlich für alle Tivoli-Projekte unternehmensweit (EMEA-wide).
Technisches und finanzielles Controlling von bereits bestehenden Projekten.
Konzeptionelle Entwicklung einzelner Tivoli-Umgebungen. Technische Leitung der Teams im In- und Ausland. Berichterstattung und Präsentation der Ergebnisse an das Management.

Angewandte Technologien: Tivoli Tools und diverse Operating Systeme, von AIX über diverse Linux Derivate, bis hin zu Windows-Servern, je nach Anforderung der Länder.

IBM DE (Köln) – 1997-1995

Nach einer umfassenden Ausbildung in Tivoli-Produkten (in London bei Tivoli) übernahm ich die Verantwortung für den Einsatz dieser Produkte bei einigen IBM-Kunden. Hierbei spezialisierte ich mich auf Tivoli-Monitoring und Tivoli Enterprise Console (TEC). Aber auch andere Tivoli-Module waren in meiner Verantwortung.
So bildete ich auch die technische Schnittstelle zwischen Team und Management.

Angewandte Technologien: Diverse Tivoli Tools auf AIX.

IBM DE (Köln) – 1994-1992

Unterstützung eines großen Entwicklungsteams bei der Administration der gesamten Infrastruktur (AIX-Server, ORACLE-DBs, Networking, etc.).

IBM DE (Neuss) – 1992-1990

Ausbildung einiger IBM-Mitarbeiter auf ORACLE-Produkte. Verwaltung mehrerer Datenbankinstanzen und Unterstützung des UNIX (AIX) -Teams.

ORACLE DE (Düsseldorf, München) – 1989-1991

Nach einer gut strukturierten Ausbildung war ich verantwortlich für die Pre- und Postale-Unterstützung für ORACLE-Produkte, mit Schwerpunkt auf ORACLE-Kernel, Client / Server-Architektur, UNIX und Netzwerkkomponenten.

Nixdorf Computer AG (Paderborn) – 1988-1989

Wechsel in die Marketing Abteilung: Pre- und Post-Sales-Support für UNIX-Umgebungen (und erster Kontakt zu relationalen Datenbanken).
Zentrale Support Abteilung: Internationale Unterstützung für UNIX-Systeme, spezialisiert auf Netzwerktechnologien wie TCP/IP und SNA.

Nixdorf Computer AG (Nürnberg) – 1987-1988

Nach einer umfassenden UNIX-Ausbildung wurde ich Teamleiter für die Bereitstellung der ersten hoch verfügbaren UNIX-Systeme für öffentliche Dienste.

Nixdorf Computer AG (Düsseldorf) – 1985-1987

Administration von Banking-Servern wie 8860. Spezialisiert auf Netzwerkkomponenten und Probleme im SNA-Umfeld

Ausbildung / Fachhochschule

Computerwissenschaften , FH Frankfurt

Nationalität

Deutsch

Languages

Deutsch (Muttersprache)
Englisch (gut)
Spanisch (basis)

Social Media

XING
LinkedIn

Weitere Interessen

SMART-Home: KNX-Bus Programmierung.

Ihr Vertragspartner

UniGlobeConsult AG
Am Buehel 1
LI-9493 Mauren




JuergenBlecker.pdf