Die TDWI Sommertagung lockt Business Intelligence Expertinnen und Experten mit drei vollen Konferenztagen aus dem ganzen Land nach München und bringt Spezialististen aus dem ganzen Land zusammen. Über 90 Sessions und 15 Case Studies dürfen von allen Teilnehmenden erwartet werden.

Wir sind bei der TDWI Konferenz in München vor Ort und berichten aktuell über die Keynotes, Vorträge und das Rahmenprogramm.

 

+++ 16:15 Lars Schubert: Eine Chance für das Auge - aussagekräftige Visualisierungen mit graphomate extensions für SAP Business-Objects Business Intelligence

Schubert steigt in den Vortrag mit eindrucksvollen Bildern ein um die Aussagekraft dieser darzustellen. Sein Motto für den Vortrag ist: Sehen statt lesen. Im SAP Umfeld hat man es häufig mit eher unästhetischen Reportings zu tun. Die Entscheider sollen nun besser in ihren Entscheidungen unterstützt werden. Er kritisiert unübersichtliche Darstellungsweisen verschiedener Statistiken. Schubert zeigt verbesserte Darstellungsweisen einer komplexen Statistik mit den graphomate extensions. Komplexität wird gegen Übersichtlichkeit getauscht. Diese Erweiterung verwenden auch wir derzeit bei Swarovski in Kombination mit SAP Design Studio und sind begeistert.

+++ 15:45 Jens Echtermeyer: Big Data and Hadoop: What are key Use Cases that will achieve Business Value? 

Auch Jens Echtermeyer von Deloitte-Consulting ist der Auffassung, dass das Thema Big Data aus der Hype-Phase heraustritt und sich konkrete Anwendungsfälle für Unternehmen ergeben. Anwendungbereiche können beispielsweise folgende sein:

1. Bankenumfeld: 

·              Betrugsanalyse 

·              Kundensicht (360°-Sicht auf den Kunden) 

2. Öffentlicher Bereich: 

·              Social Network-Analyse 

·              Kriminalisätsanylse 

3. Healthcare: 

·              Persönliche Daten 

·              Zentralsiierte Patientendaten 

+++ 15:30 Harry Barth: Big Data Analytics für Connected Cars 

Heutige Autos haben mitunter bereits mehr als 100 Sensoren. Als aktuelle Tendenz der zeichnet sich ab, dass das Internet immer stärker ins Auto vordringen (Apple Car Play) wird. Die zweite Stufe der Entwicklung beinhaltet die Kommunikation des Umfelds mit einem Auto, bspw. Ampel und Auto (Car to Infrastructure). In der dritten Ebene kommunizieren die verschiedenen Autos auf der Sraße untereinander (Car to Car). Die Automobilindustrie ist derzeit führend im Bereich Big Data - in 21% der Automobilunternehmen betrachtet. 

Bereits seit 10 Jahren können via OBD2-Analyse Daten aus dem Auto betrachtet werden, jedoch kommt es häufig zu Fehlern (bspw. Cluster-Analyse für Bremsverhalten). Heute stellt die "Connectivity Control Unit" die Verbindung mit dem Internet her (4G). Danach werden die Daten werden in Rechenzentrum mit Services verarbeitet, die bereits kommerziell zur Verfügung stehen. Als Alternative steht die Backend-Analyse via Smartphone und OBD2-Dongle bereit. Hier werden die Daten beim Hochladen in die Cloud angereichert (Wetter-Daten, Straßenmaterial und -zustände, etc.). Die Analyse der Daten erfolgt nach verschiedenen Arten: Clusteranalyse (Bspw. für Schalten Gang / Geschwindigkeit), Anomlieanalyse (Vibrationsdetektion für Schlaglöcher), Kamerasensoren für die Analyse von Positionen von anderen Fahrzeugen), Videoanalyse für Anomalien (Geisterfahrer, etc). 

Des Weiteren verdeutlicht Barth, dass die Datenverwendung heute in zwei verschiedene Richtungen läuft: 

·              B2C: Wie wird das Auto gefahren (Driver Scoring)? Wie wird das Auto genutzt (Geofencing)? 

·              B2B: Versicherungen (5%-Rabatt bei Versicherungen für Datenbereitstellung), Destination Prediction 

+++ 15:00 Stefan Seyfert: Case Study Sopra Steria: ETL mit Big Data - Erfahrungen aus der Praxis 

In dem Vortrag wirft Stefan Seyfert einen kritischen Blick auf das "Hype-Thema" Big Data und liefert einen Überblick über mögliche Lösungsansätze für Probleme im Rahmen der ETL-Prozesse in Big Data-Umgebungen. Er merkt an, dass es viele Kundenprojekt im Moment nicht über den Laborstatus hinauskommen. Seyfert stellt dar, dass es keine neue Technologien, aber neue OpenSource-Tools gibt, die auf günstiger Hardware betrieben werden können. Aus seiner Erfahrung heraus gesprochen, gibt es seiner Meinung nach zum aktuellen Zeitpunkt nur wenige "echte" Big Data-Projekte. Ein Grund dafür sieht er in der Hochkomplexität der Projekte und Tools. 

Im Laufe der Darlegung stellt Seyfert folgende Thesen auf:  

·      Big Data ist nicht einfach! 

·      Big Data ist nicht günstig (Infrastruktur, Know-How-Aufbau, Implementierungskosten)! 

·      Data Lake ist kein Sammelsorium aller Daten (Datengrab!) 

·      Datenqualität und -struktur sind und bleiben wichtig! 

Außerdem merkt er an, dass Entwicklung und Betrieb von Datenintegrationprojekte langläufig und teuer sind und im Moment am Ende an mangelnder Qualität (ETL-Dilemma) leiden. Trotz der guten Tools, die es frei verfügbar gibt, ergeben sich jedoch folgende Probleme: 

·      Werkzeugmissbrauch durch schlechte Entwickler

·      Kosten (aufwendige Implementierung nicht-funktionaler Anforderungen)

·      Performance (Netzwerk-Übertragung, Applikationsserver) 

o   Lösung: Push Down (siehe SAP HANA) 

+++ 13:00 Marc Hartz, Lars Jakob: Big Data beherrschen mit SAP HANA data warehousing

Mark Hartz als Produktmanager der SAP stellt mit dem HANA Data Warehouse die Vision der SAP für den Bereich Data Warehousing vor. Die Idee dahinter ist ein konsolidiertes Tool-Portfolio, welches alle heutigen und zukünftigen Anforderungen an den Bereich Data Warehousing abdeckt. Dies beinhaltet sowohl die modellgetriebene Entwicklung eines klassische Business Warehouse, als auch die Erstellung von Agile Data Marts und SQL-basierten DWHs, sowie die Integration von Big Data aus Hadoop-Systemen.

Bereits heute lassen sich mit SAP HANA und diversen weiteren Tools (SAP BW, SAP HANA Vora, SAP Power Designer, etc.) viele dieser Szenarien umsetzen. In dem zukünftigen Produkt der SAP sollen alle diese Tools enger zusammenwachsen und eine hohe Interoperabilität aufweisen, wobei keines der Tools vom Markt verschwinden soll. Neben der großen Flexibilität sollen die einfache Integration mit anderen SAP-Lösungen (S/4HANA, etc.) und die Nutzung von vordefiniertem Business Content weitere Herausstellungsmerkmale der zukünftigen Lösung sein.

Als Zeithorizont für das SAP HANA Data Warehouse nennt die SAP 4 Jahre, wobei die Integration sukzessive erfolgen soll.

 

 

 

+++ 12:15 Rahmenprogramm: Oculus Rift Neben dem Konferenzprogramm können sich Besucher zum einen mit verschiedensten Anbietern im Messegelände austauschen. Zum anderen gibt es die Möglichkeit sich mit aktuellen Technologien wie der Ocuus Rift vertraut zu machen. +++ 11:30 Patrick Keller, Larissa Seidler: Trends, Entwicklungen und neue Anbieter im Markt für BI, DTH und Analytics Nachfolgend wird  festgestellt, dass es immer mehr hochqualifizierte Arbeit geben wird. Herr Keller stellt als Exkurs eine Webseite des BBC vor, die die Wahrscheinlichkeit aufzeigt, dass der eigene Job von Robotern/Künstlicher Intelligenz übernommen wird. Wie wir als Gesellschaft mit dieser Herausforderung umgehen steht an diesem Punkt als Frage im Raum. Als nächsten Themenpunkt wird das Thema Cloud betrachtet. Keller geht davon aus, dass es 2016 ein Umdenken im Themenbereich Cloud geben wird.  Auch die SAP ist mit SAP BusinessObjects Cloud und dem Digital Boardroom auf dem Markt der Cloud-Produkte vertreten.

+++ 10:45 Patrick Keller, Larissa Seidler: Trends, Entwicklungen und neue Anbieter im Markt für BI, DTH und Analytics 

Der Vortrag von Patrick Keller und Larissa Seidler soll einen Überblick über Trends uns Entwicklungen im BI, DTH und Analytics Bereich geben. Keller steigt in den Vortrag mit dem Begriff Big Data ein. Er stellt fest, dass der Begriff Big Data immer noch die meiste Aufmerksamkeit in der Digitalisierungsdebatte auf sich zieht. Im Moment wird der Begriff Big Data synonym mit Begriff Digitalisierung verwendet. Als Quelle dieser Angabe nennt Keller seine eigene Beratererfahrung.

+++ 10:00 Winfried Holz: Digital Transformation in Germany and the role of BI and Analytics

An dieser Stelle mahnt Holz alle Anwesenden im Raum sich der Bedeutung von Privacy bewusst zu werden - deutschlandweit als auch europaweit. Seiner Meinung nach sollten Länder Digital Sovereighnity ? Have the power to act and decide yourself what you do anstreben. Wird Cybersecurity richtig angegangen, werden seiner Meinung nach folgende Ziele verfolgt:

1.     Life insurance for the Europeen digital Economy

2.     USP for Europe?

+++ 9:30 Winfried Holz: Digital Transformation in Germany and the role of BI and Analytics Nach einigen einleitenden Worten des Moderators wird das Mikrofon an das BITKOM Präsidiumsmitglied Herr Holz übergeben. Herr Holz gibt in der ersten offiziellen Programmstunde des Tages einen sehr allgemein gehaltenen Überblick zum Thema Digitale Transformation in Deutschland. Er stellt in den ersten 10 Minuten einige Feststellungen in den Raum. So erklärt er beispielsweise, dass aktuelle BI Projekt immer noch stark Beratergetrieben sind. Außerdem verdeutlicht er, dass es nun Aufgabe der Unternehmen ist, Finanzierungsmöglichkeiten über Datenauswertungen zu finden. Als ein Beispiel Daten zu monetarisieren wird Multisided Marketplace als Business Model angebracht.