Das ppedv Event-Team bedankt sich herzlich bei allen Teilnehmern, Partnern und vor allem den Referenten für eine gelungene Veranstaltung. Wir freuen uns auch im nächsten Jahr über Ihre Teilnahme und Ihr Engagement!
Save the date: 08. - 11. Oktober 2018!
Innerhalb von 2 Tagen können Sie so viel Wissen mitnehmen, wie Sie tragen können. Nach oben sind keine Grenzen gesetzt
Daten hier, aber wie analysieren? Ihr SQL Server kränkelt? Die Symptome geben Ihnen keinen Aufschluss? Dann sollten Sie sich von unseren SQL Therapeuten und Analytikern, wie Klaus Aschenbrenner, Uwe Ricken oder Markus Ehrenmüller beraten lassen.
Die SQLdays stehen dieses Jahr ganz im Zeichen der Praxis: Erfahrungswerte, Einsatzszenarien und Best Practice Tipps und Tricks begleiten Sie 2 Tage lang. Natürlich werden Ihnen auch Einsteigersessions geboten, um Ihnen notwendige Infos für verschiedene Themen vorab zu liefern.
An keinem anderen Ort finden Sie so schnell Gleichgesinnte! We like you!
Das sind die Hochkaräter 2017
Andreas Rauch ist Trainer und Leiter des Bereichs Server Solutions der ppedv AG. Er beschäftigt sich seit 20 Jahren mit Microsoft Server-Systemen und ist Experte für SharePoint-Produkte und -Technologien.
Sein fundiertes Wissen bestätigen auch seine zahlreichen Microsoft Zertifizierungen zum MCSA (Microsoft Certified Systems Administrator), MCITP: Database Administrator (Microsoft Certified IT Professional: Database Administrator) sowie zum MCTS (Microsoft Certified Technology Specialist) für SharePoint.
werden laufend aktualisiert
Installation, Konfiguration und Einführung Power BI Reports in SQL Server Reporting Services Technical Preview. Schritt für Schritt wird die Installation und Konfiguration erläutert. Anschließend werden die Voraussetzungen im Analysis Services und das Erstellen von interaktiven Reports in Power BI erläutert. Anzeigen und interagieren mit den erstellten Reports im Reporting Services Webportal runden die Session ab.
In dieser Session werden die Möglichkeiten von Power BI Desktop, Mobile Apps für Power BI und Power BI-Entwickler vorgestellt. Ebenso werden die Voraussetzungen wie Daten-Integration und Daten-Modelle im SQL Server berücksichtigt. Anschließend werden Ihnen Szenarien aufgezeigt, wie Sie Power BI als Self-Service einführen und umsetzen können.
Computersysteme haben inzwischen gelernt, neue Krebstypen automatisch zu erkennen, Kreditkartenbetrug aufzudecken und natürliche Sprache zu verstehen. Sie helfen uns weit über eine eine simple Umsatzprognose hinaus, Kunden die passenden Produkte schmackhaft zu machen oder rechtzeitig zu erkennen, bevor sie zum Mitbewerb abspringen werden. Der Grund dafür sind weniger neuartige Algorithmen sondern viel mehr die heutzutage mögliche Rechenleistung, die einerseits die Zeit zwischen Experimentierphase (Lernen) und praktischer Anwendung verkürzt und andererseits die Algorithmen in Echtzeit anwenden lässt. Die Cloud bietet uns diese (nahezu) unlimitierte Rechenpower. Daher: Machine Learning ist die Killer Applikation, die der Cloud breiten Durchbruch in Anwendungsgebieten und Branchen verhelfen wird, die sich bis dato dem verschlossen haben. Kommen Sie in diese Session, wenn Sie mehr darüber wissen wollen, wie Machine Learning im allgemeinen und Azure Machine Learning im Speziellen funktioniert und wie Sie bereits am kommenden Montag mit den ersten Anwendungsfällen für Ihre Organisation loslegen können.
Sie sind mit T-SQL vertraut und wollen R lernen, wissen aber nicht, wo Sie starten sollen? Starten Sie mit dem, was Sie schon kennen: T-SQL. Beide Sprachen haben viele Dinge gemeinsam, weisen aber auch viele Unterschiede auf. Dieser Vortrag ist Ihr Turbo-Knopf zu R und führt Sie in R über Analogien zu T-SQL ein. Sie werden lernen, wie Sie Ihr erstes R-Script schreiben, wozu Sie Packages nutzen können und der Vortrag vermittelt Ihnen Basis-Anwendungsfälle von R. Sie lernen auch, wie Sie R in Ihre bestehende SQL Server Umgebung integrieren können.
Sie kennen sich mit Locking & Blocking in SQL Server gut aus? Sie wissen genau in welchen Situationen der SQL Server welche Locks anfordert, und wie die unterschiedlichen Locks miteinander kompatibel sind? Wenn ja, dann sind Sie in dieser Session richtig aufgehoben. Im Rahmen dieser Session möchte ich Ihnen eine Reihe unterschiedlicher Extremszenarien präsentieren, in denen sich der SQL Server hinsichtlich dem Locking & Blocking anders verhält, als Sie das erwartet hätten:
*) Auch NOLOCK kann blockieren!
*) Ein Shared Lock blockiert einen Shared Lock!
*) Read Committed verhält sich wie Repeatable Read!
*) Online Index Operations sind keine Online Index Operations!
Eine der wichtigsten Aufgaben, die der Query Optimizer im SQL Servers übernimmt, ist die sogenannte Cardinality Estimation: eine Abschätzung zu machen wie viele Datensätze von einer Abfrage zurückgeliefert werden. Aufbauend auf dieser Abschätzung wird ein entsprechender Ausführungsplan generiert und ausgeführt. Die Cardinality Estimation bedient sich eines mathematischen Modells, das einigen Einschränkungen unterliegt. Verletzen Sie diese Einschränkungen, generiert Ihnen der Query Optimizer einen qualitativ schlechteren Ausführungsplan. Aus diesen Beweggründen heraus gibt es im SQL Server 2014 entsprechende Neuerungen, um mit diesen "Grauzonen" der Cardinality Estimation besser umgehen zu können. Im Rahmen dieses Vortrags werden wir uns im ersten Schritt diesen Grauzonen näher widmen, und aufbauend darauf werden Sie die Änderungen kennenlernen, die der SQL Server 2014 implementiert.
Wollten Sie immer schon einmal wissen wie der SQL Server reagiert, wenn Sie seine harten Limitierungen erreichen? Im Rahmen dieser Session werden wir versuchen unterschiedlichste Extremsituationen nachzustellen, und damit den SQL Server an seine Limitierungen bringen. Folgende Limitierungen werden wir uns hierbei näher ansehen:
*) Maximale Anzahl von Indexes
*) Maximale Anzahl von Datenbanken
*) Maximale Anzahl von Files & File Groups
*) Maximale Anzahl von Partitionen
*) Maximale Anzahl von Spalten
*) Maximale Anzahl von Parametern in einer Stored Procedure
Der SQL Server 2017 steht in den Startlöchern. Grund genug sich in einem Vortrag mit den Neuerungen und Verbesserungen der relationalen Datenbankengine zu beschäftigen. Im Rahmen dieser Session werden wir einen Streifzug durch die Datenbankengine des SQL Server 2017 unternehmen, und hierbei auf Neuerungen wie dem Adaptive Query Processing und dem Graph Data Processing näher eingehen.
SQL Server und Windows, seit Jahren ein unzertrennliches Paar und eine gute Kombination für die Verarbeitung von Daten. Mit SQL Server vNext wird sich dies jedoch ändern, denn aus dem Norden Europas, genauer aus Helsinki, möchte ein kleiner Pinguin der SQL Server Community beitreten. Die kommende SQL Server Version wird es nicht mehr ausschließlich für Windows geben. Ein Deployment der relationalen Datenbank Engine wird in naher Zukunft auch auf Linux und innerhalb von Docker möglich sein. Somit bietet der SQL Server nun mehr Einsatzmöglichkeiten und Anwendungsfälle als je zuvor. Aber wie funktioniert SQL Server on Linux? Was wird unterstützt, was nicht? Welche Szenarien sind möglich? Alle diese Punkte möchte in dieser Session besprechen.
Sie kennen die Situation, dass eine Abfrage gestern noch schnell und zufriedenstellend gearbeitet hat und heute will sie nicht mehr so richtig? Was machen Sie in einer solchen Situation:
• Ich starte den Server neu (hat ja sonst auch immer geklappt)
• Ich lösche den Prozedur-Cache (hat mir mein DBA erzählt)
• Ich hole mir erst einmal einen Kaffee und überlege, was ich in dieser Session gelernt habe
Microsoft SQL Server benötigt Statistiken für ideale Ausführungspläne. Wenn Statistiken nicht aktuell sind, kann Microsoft SQL Server unter Umständen Ausführungspläne erstellen, die eine Abfrage um ein Vielfaches langsamer laufen lassen. Neben dem grundlegenden Verständnis für Statistiken werden in dieser Session Besonderheiten gezeigt, die nur einem kleinen Kreis von Experten bekannt sind. Nach einer kurzen Einführung in die Funktionalität von Statistiken (Level 100) geht es gleich in die besonderen Abfragesituationen, die ohne Erfahrungen zu falschen Entscheidungen führen. Folgende Themen werden unter Verwendung von sehr vielen Demos behandelt: • Einführung in die interne Struktur von Statistiken (200)
• Was sind Statistiken
• Header, Density, Histogram
• Aktualisierungsintervalle von Statistiken
• Beispiele für die Berechnung von geschätzten Datenzeilen (200)
• Veraltete Statistiken und fortlaufende Werte (300)
• Wenn Statistiken nicht aktualisiert werden (300)
• Eindeutige Indexe und nicht aktualisierte Statistiken (300)
• Leere Tabellen und Statistiken (400)
Datenanalysten lieben die Auswertung historischer Daten; Datenbankentwickler verzweifeln – teilweise – an den Anforderungen. Welche Technologie stellt Microsoft SQL Server zur Verfügung, um die täglichen Herausforderungen in diesem Aufgabengebiet zu meistern. Mit Microsoft SQL Server 2016 kommen – endlich – Temporal Tables (Ein ANSI 2011 Standard), ein von den Entwicklern lang ersehntes Feature. Mittlerweile gibt es viele Standardbeispiele zur Verwendung von Temporal Tables; diese Session zeigt die technischen Hintergründe und die Besonderheiten, die mit der Verwendung von Temporal Tables einhergehen:
• Welche Besonderheiten gilt es bei Temporal Tables und der Verwendung von NULL Werten zu beachten?
• Wie bearbeitet Microsoft SQL Server das Umbenennen von Objekten / Attributen, wenn Temporal Tables im Spiel sind?
• Trigger in Temporal Tables eher ein No Go?
• Wie verhalten sich Veränderungen von Metadaten in den Tabellen bei Temporal Tables?
• Welche Besonderheiten gibt es zu beachten, wenn Temporal Tables mit InMemory-Tabellen verwendet werden?
• Temporal Tables und berechnete Spalten – kann das funktionieren?
• Temporal Tables...
und lassen Sie sich in dieser Session beeindrucken von den vielen Möglichkeiten, die Temporal Tables bieten. Aber achten Sie auch auf die kleinen Unwägbarkeiten bei der Entwicklung von Lösungen mit Temporal Tables.
Das Kollaborationsportal SharePoint ist aus der Unternehmenswelt nicht mehr wegzudenken und wird immer häufiger als das zentrale Werkzeug für die Mitarbeiter eingesetzt. Um alle Mitarbeiter von dem Portal zu überzeugen, sollte es daher einfach zu bedienen sein und Anfragen schnell bearbeiten. Aber was schlägt Ihnen die Suchmaschine Ihrer Wahl als erstes vor, wenn Sie mit den Worten beginnen: „Why is SharePoint...“? Richtig, das erste Ergebnis ist: „Why is SharePoint so slow“.
Das wichtigste zuerst: SQL und SharePoint ist keine Liebe auf den ersten Blick. Wir müssen aber nur ein paar Konfigurationen vornehmen, damit aus der Verbindung eine Liebeshochzeit wird.
In diesem Vortrag sehen wir uns fünf Standardeinstellungen von SQL genauer an, mit denen wir die SharePoint-Performance um das Vierfache steigern können. Wenn das alleine nicht schon ein super Ergebnis ist, verbessern wir zudem noch das gegenseitige Verständnis von Datenbank- und SharePoint-Administratoren, um gemeinsam die Zusammenarbeit im Unternehmen auf das nächste Level zu heben.
In dieser Session erörtern wir die Bedeutung von Metadaten für die Beschreibung eines ETL und DWH Designs unter Berücksichtigung von Themen wie initialem Aufbau, Wartung und Support sowie Dokumentation und Compliance. Darüber hinaus sehen wir uns an, wie wir - das richtige Metadaten-Modell vorausgesetzt - mit wenigen Klicks aus dem Modell danach mit Hilfe von Biml auch eine entsprechende SSIS Solution etc. ableiten können.
Die Anzahl der parallelen Dataflows in SSIS ist je nach Vorsystem begrenzt. Somit ist ein paralleles Laden nur bis zu einem gewissen Punkt möglich. Was aber, wenn Tabellen unterschiedlich stark bzw. schnell wachsen? Hier hilft nur ein regelmäßiges Optimieren, um zu vermeiden, dass Ressourcen verschwendet werden. Ihr habt verschiedene load Patterns deren Performance variiert? Oder ihr habt stark wachsende Strukturen mit hinzukommenden Fremdschlüsseln, die bei der Beladungs-Reihenfolge beachtet werden müssen? Wir sehen uns für diese Fälle an, wie wir diese mit Biml weitgehend automatisiert lösen und optimieren können!
Die moderne Industrie kann es sich heutzutage nicht mehr leisten, unvorhergesehene Ausfälle in ihren Produktionsketten zu haben. Steht eine kritische Maschine, dann sind auch alle nachfolgenden Prozesse betroffen. Gleichzeitig wächst aber auch die Datenmenge, die wir durch Sensoren aus diesen Maschinen erhalten. Durch die Azure Cloud können wir diese Datenschätze nutzen um nahende Ausfälle vorherzusagen und proaktiv tätig zu werden sowie ein passendes Maintenance-Fenster zu finden. Wir betrachten in dieser Session zuerst, wie man die eingehenden Maschinendaten per Stream verarbeitet. Durch Azure ML erkennt man dann sehr einfach, wenn die Prozesse einer Maschine nicht wie erwartet laufen und ein Ausfall bevorsteht. Diese Informationen nutzen wir dann in einer operationellen Anwendung, um den Benutzer zu warnen.
Power BI und Tableau sind zwei derzeit sehr stark verbreitete Frontends, die sich auf die Fahnen schreiben, „echte“ Self-Service BI Tools zu sein. Dies trifft auch zu, solange man sich im Import Modus befindet. Enterprise Nutzer wollen heutzutage jedoch real-time Reports, die dazu noch höllisch performant sind. Da schafft der live Query Modus Abhilfe. Um jedoch genau diesen zur Höchstleistung zu tunen, benötigt man gut ausgebildete DBa’s, denn dies ist beileibe kein Kinderspiel und für Self-Service Fachanwender kaum umsetzbar. Wir betrachten in dieser Session einige Beispiele aus der Praxis und leiten Best Practises für die Erstellung guter Live Reports ab.
Die Einführung für R-Neulinge hat Dir gefallen, jetzt möchtest Du die nächsten Schritte wagen, und echten R-Code ausprobieren? Wir vertiefen zwei Aspekte aus meiner Präsentation "Von SQL zu R und darüber hinaus" und wir werden sehen, wer sich an Benford's Gesetz hält, und wer nicht. Die drei Themen dieser leicht Code-lastigen Session sind:
- dynamisches SQL umgesetzt in R, als Beispiel zur Abfrage einer Multi-Mandanten-Datenbank
- Visualisierungen in R auf der Basis von Shapefiles und Choropleth-Techniken
- die Anwendung von Benford's Gesetz, in dem es eigentlich nicht um Betrug geht, zur möglichen Aufdeckung von Betrug
Inzwischen dürfte wohl die ganze SQL-Welt von der (Programmier-)Sprache R gehört haben, nicht zuletzt seitdem Microsoft sie in immer mehr ihren Data Platform Produkten integriert. Du hast also Dein R Basis-System installiert, und die Entwicklungsumgebung Deiner Wahl. Aber es ist wie beim Kauf eines neuen Autos – mit der Standardausstattung ist keiner zufrieden. Du weißt, es gibt x Pakete, die Dir bei Analyse und Visualisierung helfen, aber welche nimmst Du? Hier bietet sich ein Bündel mit dem Namen „The Tidyverse“ an, größtenteils (mit-)entwickelt von Hadley Wickham, einem der hellsten Köpfe im R-Ökosystem. Wir werden uns in dieser Session die beliebtesten Zutaten des Tidyverse ansehen, wie ggplot2, dplyr und readr, garniert mit vielen Code-Beispielen zum mit-bzw. nachmachen.
Hadoop ist der Trend im Big Data und Data Science Bereich schlechthin. Hadoop und Spark wird nachgesagt, dass es traditionelle Datawarehouses in absehbarer Zeit ersetzen wird. Doch was genau ist diese Technologie und wie passt diese ins Microsoft Ökosystem? Lernen Sie in diesem Vortrag, wie Hadoop & Spark funktionieren und warum es für Microsoft eine sehr wichtige Technologieplattform ist.
NoSQL ist ja inzwischen mit aller Gewalt auch bei uns Microsofties angekommen. Hadoop in diversen Varianten (klar), DocumentDB etc. etc. Einzig bei GraphDBs sah es doch recht mau aus. Trinity wurde zwischenzeitlich zwar Open Source, rührte sich sonst aber rein gar nicht. Trotzdem, spätestens seit der LinkedIn Übername brodelte die Gerüchteküche. Im Sommer dann der Doppelschlag: Cosmos und die GraphDB Integration im 17er. Anlass genug für uns einen näheren Blick zu riskieren: Was können GraphDBs eigentlich besser als unser vertrauter rein relationaler SQL Server? Und warum? Als Benchmark wählen wir den wohl etabliertesten Vertreter - Neo4J - und schauen was wir uns davon an Features abgucken können/wollen. Und dann wird es spannend: Was davon kann unsere Lieblingsdatenbank denn jetzt auch? Und wie sehen die dreckigen Details aus?
Sie benötigen hochverfügbare Datenbanken? Dann sollten Sie diese Session nicht versäumen. Es werden alle Hochverfügbarkeitslösungen auf den Prüfstand geschickt und nach Kriterien wie Flexibilität, tats. Hochverfügbarkeit, Datenverlust, Wartung und Troubleshooting untersucht. Natürlich werden hier auch AvailabilityGroups je nach Edition oder auch Replikation betrachtet. Die Session richtet sich an Entscheider und Administratoren.
Auch in der neuesten SQL Server-Version gibt es zahlreiche Verbesserungen bei den blitzschnellen Auswertungs-Modellen, die Analysis Services bereitstellt. Allerdings ist die Arbeit des Entwicklungs-Teams nur in die tabellarische Version eingeflossen; die multidimensionalen Cubes sind ja hervorragend, so wie sie sind! Beim Tabellenmodus hingegen gibt es nun sehr viele neue Features, die zuerst für das Self-Service-Werkzeug „Power BI“ entwickelt wurden, und wir sehen sie uns an kleinen praktischen Beispielen einmal an. Dabei entdeckt man plötzlich die Integration von Power Query in SSAS, einen schöneren Editor für DAX-Statements, neue Möglichkeiten der Berechtigungen auf Tabellen und Spalten und dass man endlich genau konfigurieren kann, welche Spalten in Excel bei „Details anzeigen“ wirklich angezeigt werden!
Weitere Informationen folgen demnächst. Ergänzungen bzw. Änderungen vorbehalten.
Dieser Workshop behandelt die Themenbereiche SQL Server Integrated Services (SSIS), SQL Server Analysis Services (SSAS) und SQL Server Reporting Services (SSRS) mit Power BI. Auch die Integration mit SharePoint und Azure wird berücksichtigt.
Hierarchien und Graphen sind das A und O der meisten Geschäftsanwendungen und gibt es fast überall: Produktkategorien, Verkaufsgebiete, Kalender und Zeit, Organigramme, Stücklisten, (soziale) Netzwerke, etc.
Obwohl es großen Bedarf aus der geschäftlichen Perspektive gibt, ist die Lösung in relationalen Datenbank etwas umständlich. Je nach Modellierung sind die Möglichkeiten der Auswertung enger oder weiter gesteckt. In SQL Server 2008 wurde HierarchieID als Unterstützung eingeführt. Mit SQL Server 2017 gibt es eine GraphDB, die in die (relationale) Datanbank integriert ist.
Agenda:
Modul „Modellierung“: Eine-Tabelle-für-alles, normalisiertes Modell, Selbst-referenzierende Tabelle, materialisierter Pfad, HierarchieID, Graph DB
Modul „Abfragen“: Aggregationen, Window-Funktionen, Vorfahren & Nachfahren, vollständiger Familienbaum, Transitive Hülle, Kürzester Pfad
Modul „Operationalisieren“: einfügen, ändern & löschen von Elementen, Vermeidung von Anomalien; Abbilden mit Funktionen & Prozeduren
Modul „Optimierung“: Bewertung der Effizienz der Auswertungen aus Modul „Abfragen“, Ausführungspläne verschiedener Ansätze vergleichen, Indizierung
Kommen Sie bei diesem Workshop mit auf eine Reise zu best practices und nützlichen Skripts um Hierarchien und Graphen in nutzbare Informationen zu verwandeln. Mit den Beispieldaten werden wir jedenfalls Spaß haben – diese basieren auf G. R. R. Martin’s Epos „Game of Thrones“.
Im Rahmen dieses Ganztages-Workshops arbeiten wir mit einer Standard-Installation vom SQL Server, und lassen eine Workload mit einigen hundert Benutzern ausführen. Wie Sie sehr schnell erkennen werden, wird der SQL Server in enorme Performance-Probleme stürzen, und die Abfragezeiten aus Endbenutzer-Perspektive sind katastrophal. Was nun? Wir werden dann gemeinsam mit den Bordmitteln vom SQL Server analysieren in welchen Bereichen der Schuh drückt, und über den Lauf des Tages eine optimale SQL Server Konfiguration erstellen, mit der schlussendlich die Endbenutzer ebenfalls eine Freude haben werden.
Zum Tagesgeschäft eines DBA sowie von Beratern, die in Sachen „Microsoft SQL Server“ unterwegs sind, gehören die sorgfältige Analyse von SQL Server Systemen, wenn das Business oder der Kunde Performanceprobleme meldet. Im Workshop „Analyse von SQL Server“ wird an Hand von konkreten Beispielen ein Microsoft SQL Server auf verschiedene Problemfälle geprüft, die zu Engpässen führen, wenn sie nicht korrekt eingestellt sind.
Im Workshop werden die verschiedenen Problemanalysen durch Beispiele mit Erläuterungen zu den möglichen Auswirkungen demonstriert. Gleichzeitig wird ein Lösungsplan erarbeitet, an dem sich der Teilnehmer von den richtigen Einstellungen im Betriebssystem zu den Konfigurationseinstellungen in Microsoft SQL Server durcharbeiten kann. Last but not least werden Lösungswege aufgezeigt, wenn die Performance innerhalb einer einzelnen Datenbank als nicht ausreichend bewertet wird. Alle möglichen Performanceengpässe werden auf einem installierten Microsoft SQL Server mittels Skripten simuliert und ausgewertet. Die folgenden Analyseschritte werden im Laufe des Workshops behandelt:
• Einstellungen im Betriebssystem überprüfen und bewerten
• Analyse der Datenbanken auf Konfiguration, Nutzung und Systemauslastung
• Konfiguration und Analyse von TEMPDB
• Waits and Latches: Worauf wartet Microsoft SQL Server und welchen Einfluss haben die verschiedenen Wartevorgänge auf die Performance der Anwendungen
• Index Maintenance – wie werden Indexe verwendet, welche Indexe fehlen, wie ist der physikalische Zustand von Indexen zu bewerten.
Zum Abschluss der Bewertungen wird eine Vorlage vorgestellt, in der die Ergebnisse der Untersuchungen der
SQL Server Versionen:
2008 / 2008R2
2012 / 2014 / 2016
vorgezeigt werden.
Scan oder Seek? Ein Sortieren im Abfrageplan, obwohl kein order by angegeben wurde? Tabellenabfragen benötigen mehr Seiten als die Tabellen eigentlich besitzen? Queries benötigen nur noch einen Bruchteil der Dauer nach Indexoptimierung. Um solche Phänomen zu verstehen, ist das Thema Indizes elementar. In diesem Workshop wird der Aufbau und die verschiedenen Arten von Indizes erläutert. An Hand von Beispielen werden schrittweise Indizes erstellt gemessen und bewertet, um eine optimale Strategie für ein Feintuning zu erreichen. Der Workshop richtet sich an Administratoren, die für ihr gesamtes System eine optimale Indexstrategie finden müssen, sowie auch an Entwickler, die ihre Abfrage verbessern wollen.
Weitere Informationen folgen demnächst. Ergänzungen bzw. Änderungen vorbehalten.
Änderungen sind jederzeit möglich.
Die Agenda 2017
Klaus Blessing
Dieser Workshop behandelt die Themenbereiche SQL Server Integrated Services (SSIS), SQL Server Analysis Services (SSAS) und SQL Server Reporting Services (SSRS) mit Power BI. Auch die Integration mit SharePoint und Azure wird berücksichtigt.
Markus Ehrenmüller
Hierarchien und Graphen sind das A und O der meisten Geschäftsanwendungen und gibt es fast überall: Produktkategorien, Verkaufsgebiete, Kalender und Zeit, Organigramme, Stücklisten, (soziale) Netzwerke, etc. Obwohl es großen Bedarf aus der geschäftlichen Perspektive gibt, ist die Lösung in relationalen Datenbank etwas umständlich. Je nach Modellierung sind die Möglichkeiten der Auswertung enger oder weiter gesteckt. In SQL Server 2008 wurde HierarchieID als Unterstützung eingeführt. Mit SQL Server 2017 gibt es eine GraphDB, die in die (relationale) Datanbank integriert ist.
Agenda:
Modul „Modellierung“: Eine-Tabelle-für-alles, normalisiertes Modell, Selbst-referenzierende Tabelle, materialisierter Pfad, HierarchieID, Graph DB
Modul „Abfragen“: Aggregationen, Window-Funktionen, Vorfahren & Nachfahren, vollständiger Familienbaum, Transitive Hülle, Kürzester Pfad
Modul „Operationalisieren“: einfügen, ändern & löschen von Elementen, Vermeidung von Anomalien; Abbilden mit Funktionen & Prozeduren
Modul „Optimierung“: Bewertung der Effizienz der Auswertungen aus Modul „Abfragen“, Ausführungspläne verschiedener Ansätze vergleichen, Indizierung
Kommen Sie bei diesem Workshop mit auf eine Reise zu best practices und nützlichen Skripts um Hierarchien und Graphen in nutzbare Informationen zu verwandeln. Mit den Beispieldaten werden wir jedenfalls Spaß haben – diese basieren auf G. R. R. Martin’s Epos „Game of Thrones“.
Markus Raatz
Auch in der neuesten SQL Server-Version gibt es zahlreiche Verbesserungen bei den blitzschnellen Auswertungs-Modellen, die Analysis Services bereitstellt. Allerdings ist die Arbeit des Entwicklungs-Teams nur in die tabellarische Version eingeflossen; die multidimensionalen Cubes sind ja hervorragend, so wie sie sind! Beim Tabellenmodus hingegen gibt es nun sehr viele neue Features, die zuerst für das Self-Service-Werkzeug „Power BI“ entwickelt wurden, und wir sehen sie uns an kleinen praktischen Beispielen einmal an. Dabei entdeckt man plötzlich die Integration von Power Query in SSAS, einen schöneren Editor für DAX-Statements, neue Möglichkeiten der Berechtigungen auf Tabellen und Spalten und dass man endlich genau konfigurieren kann, welche Spalten in Excel bei „Details anzeigen“ wirklich angezeigt werden!
SQL Server auf Linux
Im März 2016 überraschte Microsoft mit der Ankündigung, den SQL Server auch für Linux-Betriebssysteme bereitzustellen. Hier werden die Mechanismen der Bereitstellung von SQL Server vNext/2017 auf Linux erläutert (Installation und Zugriff) und darauf eingegangen, wie es mit Performance und Tuning aussieht. Hierbei kommt es auch zum Vergleich von Ausführungsplänen zwischen Linux und Windows. Auch wird es ein Benchmark-Vergleich zwischen SQL Server auf Linux und Windows geben.
Mario Meir-Huber
Hadoop in der Cloud Hadoop ist der Trend im Big Data und Data Science Bereich schlechthin. Hadoop und Spark wird nachgesagt, das es traditionelle Datawarehouses in absehbarer Zeit ersetzen wird. Doch was genau ist diese Technologie und wie passt diese ins Microsoft Ökosystem? Lernen Sie in diesem Vortrag, wie Hadoop & Spark funktionieren und warum es für Microsoft eine sehr wichtige Technologieplattform ist.
Uwe Ricken
Datenanalysten lieben die Auswertung historischer Daten; Datenbankentwickler verzweifeln – teilweise – an den Anforderungen. Welche Technologie stellt Microsoft SQL Server zur Verfügung, um die täglichen Herausforderungen in diesem Aufgabengebiet zu meistern. Mit Microsoft SQL Server 2016 kommen – endlich – Temporal Tables (Ein ANSI 2011 Standard), ein von den Entwicklern lang ersehntes Feature. Mittlerweile gibt es viele Standardbeispiele zur Verwendung von Temporal Tables; diese Session zeigt die technischen Hintergründe und die Besonderheiten, die mit der Verwendung von Temporal Tables einhergehen:
• Welche Besonderheiten gilt es bei Temporal Tables und der Verwendung von NULL Werten zu beachten?
• Wie bearbeitet Microsoft SQL Server das Umbenennen von Objekten / Attributen, wenn Temporal Tables im Spiel sind?
• Trigger in Temporal Tables eher ein No Go?
• Wie verhalten sich Veränderungen von Metadaten in den Tabellen bei Temporal Tables?
• Welche Besonderheiten gibt es zu beachten, wenn Temporal Tables mit InMemory-Tabellen verwendet werden?
• Temporal Tables und berechnete Spalten – kann das funktionieren?
• Temporal Tables...
und lassen Sie sich in dieser Session beeindrucken von den vielen Möglichkeiten, die Temporal Tables bieten. Aber achten Sie auch auf die kleinen Unwägbarkeiten bei der Entwicklung von Lösungen mit Temporal Tables.
Thomas Hütter
Inzwischen dürfte wohl die ganze SQL-Welt von der (Programmier-)Sprache R gehört haben, nicht zuletzt, seit Microsoft sie in immer mehr ihrer Data Platform Produkte integriert. Du hast also Dein R Basis-System installiert, und die Entwicklungsumgebung Deiner Wahl. Aber es ist wie beim Kauf eines neuen Autos – mit der Standardausstattung ist keiner zufrieden. Du weißt, es gibt x Pakete, die Dir bei Analyse und Visualisierung helfen, aber welche nimmst Du? Hier bietet sich ein Bündel mit dem Namen „The Tidyverse“ an, größtenteils (mit-)entwickelt von Hadley Wickham, einem der hellsten Köpfe im R-Ökosystem. Wir werden uns in dieser Session die beliebtesten Zutaten des Tidyverse ansehen, wie ggplot2, dplyr und readr, garniert mit vielen Code-Beispielen zum mit-bzw. nachmachen.
Klaus Blessing
In dieser Session werden die Möglichkeiten von Power BI Desktop, Mobile Apps für Power BI und Power BI-Entwickler vorgestellt. Ebenso werden die Voraussetzungen wie Daten-Integration und Daten-Modelle im SQL Server berücksichtigt. Anschließend werden Ihnen Szenarien aufgezeigt, wie Sie Power BI als Self-Service einführen und umsetzen können.
Klaus Aschenbrenner
Eine der wichtigsten Aufgaben, die der Query Optimizer im SQL Servers übernimmt, ist die sogenannte Cardinality Estimation: eine Abschätzung zu machen wie viele Datensätze von einer Abfrage zurückgeliefert werden. Aufbauend auf dieser Abschätzung wird ein entsprechender Ausführungsplan generiert und ausgeführt. Die Cardinality Estimation bedient sich eines mathematischen Modells, das einigen Einschränkungen unterliegt. Verletzen Sie diese Einschränkungen, generiert Ihnen der Query Optimizer einen qualitativ schlechteren Ausführungsplan. Aus diesen Beweggründen heraus gibt es im SQL Server 2014 entsprechende Neuerungen, um mit diesen "Grauzonen" der Cardinality Estimation besser umgehen zu können. Im Rahmen dieses Vortrags werden wir uns im ersten Schritt diesen Grauzonen näher widmen, und aufbauend darauf werden Sie die Änderungen kennenlernen, die der SQL Server 2014 implementiert.
Benjamin Weissman
In dieser Session erörtern wir die Bedeutung von Metadaten für die Beschreibung eines ETL und DWH Designs unter Berücksichtigung von Themen wie initialem Aufbau, Wartung und Support sowie Dokumentation und Compliance. Darüber hinaus sehen wir uns an, wie wir - das richtige Metadaten-Modell vorausgesetzt - mit wenigen Klicks aus dem Modell danach mit Hilfe von Biml auch eine entsprechende SSIS Solution etc. ableiten können.
Tarek Salha
Power BI und Tableau sind zwei derzeit sehr stark verbreitete Frontends, die sich auf die Fahnen schreiben, „echte“ Self-Service BI Tools zu sein. Dies trifft auch zu, solange man sich im Import Modus befindet. Enterprise Nutzer wollen heutzutage jedoch real-time Reports, die dazu noch höllisch performant sind. Da schafft der live Query Modus Abhilfe. Um jedoch genau diesen zur Höchstleistung zu tunen, benötigt man gut ausgebildete DBa’s, denn dies ist beileibe kein Kinderspiel und für Self-Service Fachanwender kaum umsetzbar. Wir betrachten in dieser Session einige Beispiele aus der Praxis und leiten Best Practises für die Erstellung guter Live Reports ab.
tbd
tbd
Benjamin Weissman
In dieser Session erörtern wir die Bedeutung von Metadaten für die Beschreibung eines ETL und DWH Designs unter Berücksichtigung von Themen wie initialem Aufbau, Wartung und Support sowie Dokumentation und Compliance. Darüber hinaus sehen wir uns an, wie wir - das richtige Metadaten-Modell vorausgesetzt - mit wenigen Klicks aus dem Modell danach mit Hilfe von Biml auch eine entsprechende SSIS Solution etc. ableiten können.
SQL-Optimierung für einen schnelleren SharePoint (Level 300)
Das Kollaborationsportal SharePoint ist aus der Unternehmenswelt nicht mehr wegzudenken und wird immer häufiger als das zentrale Werkzeug für die Mitarbeiter eingesetzt. Um alle Mitarbeiter von dem Portal zu überzeugen, sollte es daher einfach zu bedienen sein und Anfragen schnell bearbeiten. Aber was schlägt Ihnen die Suchmaschine Ihrer Wahl als erstes vor, wenn Sie mit den Worten beginnen: „Why is SharePoint...“? Richtig, das erste Ergebnis ist: „Why is SharePoint so slow“. Das wichtigste zuerst: SQL und SharePoint ist keine Liebe auf den ersten Blick. Wir müssen aber nur ein paar Konfigurationen vornehmen, damit aus der Verbindung eine Liebeshochzeit wird. In diesem Vortrag sehen wir uns fünf Standardeinstellungen von SQL genauer an, mit denen wir die SharePoint-Performance um das Vierfache steigern können. Wenn das alleine nicht schon ein super Ergebnis ist, verbessern wir zudem noch das gegenseitige Verständnis von Datenbank- und SharePoint-Administratoren, um gemeinsam die Zusammenarbeit im Unternehmen auf das nächste Level zu heben.
Andreas Rauch
Sie benötigen hochverfügbare Datenbanken? Dann sollten Sie diese Session nicht versäumen. Es werden alle Hochverfügbarkeitslösungen auf den Prüfstand geschickt und nach Kriterien wie Flexibilität, tats. Hochverfügbarkeit, Datenverlust, Wartung und Troubleshooting untersucht. Natürlich werden hier auch AvailabilityGroups je nach Edition oder auch Replikation betrachtet. Die Session richtet sich an Entscheider und Administratoren.
Tarek Salha
Die moderne Industrie kann es sich heutzutage nicht mehr leisten, unvorhergesehene Ausfälle in ihren Produktionsketten zu haben. Steht eine kritische Maschine, dann sind auch alle nachfolgenden Prozesse betroffen. Gleichzeitig wächst aber auch die Datenmenge, die wir durch Sensoren aus diesen Maschinen erhalten. Durch die Azure Cloud können wir diese Datenschätze nutzen um nahende Ausfälle vorherzusagen und proaktiv tätig zu werden sowie ein passendes Maintenance-Fenster zu finden. Wir betrachten in dieser Session zuerst, wie man die eingehenden Maschinendaten per Stream verarbeitet. Durch Azure ML erkennt man dann sehr einfach, wenn die Prozesse einer Maschine nicht wie erwartet laufen und ein Ausfall bevorsteht. Diese Informationen nutzen wir dann in einer operationellen Anwendung, um den Benutzer zu warnen.
Joachim Hammer
SQL: "Wo geht die Reise hin?"
Markus Ehrenmüller
Sie sind mit T-SQL vertraut und wollen R lernen, wissen aber nicht, wo Sie starten sollen? Starten Sie mit dem, was Sie schon kennen: T-SQL. Beide Sprachen haben viele Dinge gemeinsam, weisen aber auch viele Unterschiede auf. Dieser Vortrag ist Ihr Turbo-Knopf zu R und führt Sie in R über Analogien zu T-SQL ein. Sie werden lernen, wie Sie Ihr erstes R-Script schreiben, wozu Sie Packages nutzen können und der Vortrag vermittelt Ihnen Basis-Anwendungsfälle von R. Sie lernen auch, wie Sie R in Ihre bestehende SQL Server Umgebung integrieren können.
Klaus Aschenbrenner
Der SQL Server 2017 steht in den Startlöchern. Grund genug sich in einem Vortrag mit den Neuerungen und Verbesserungen der relationalen Datenbankengine zu beschäftigen. Im Rahmen dieser Session werden wir einen Streifzug durch die Datenbankengine des SQL Server 2017 unternehmen, und hierbei auf Neuerungen wie dem Adaptive Query Processing und dem Graph Data Processing näher eingehen.
Klaus Blessing
Installation, Konfiguration und Einführung Power BI Reports in SQL Server Reporting Services Technical Preview. Schritt für Schritt wird die Installation und Konfiguration erläutert. Anschließend werden die Voraussetzungen im Analysis Services und das Erstellen von interaktiven Reports in Power BI erläutert. Anzeigen und interagieren mit den erstellten Reports im Reporting Services Webportal runden die Session ab.
Klaus Aschenbrenner
Sie kennen sich mit Locking & Blocking in SQL Server gut aus? Sie wissen genau in welchen Situationen der SQL Server welche Locks anfordert, und wie die unterschiedlichen Locks miteinander kompatibel sind? Wenn ja, dann sind Sie in dieser Session richtig aufgehoben. Im Rahmen dieser Session möchte ich Ihnen eine Reihe unterschiedlicher Extremszenarien präsentieren, in denen sich der SQL Server hinsichtlich dem Locking & Blocking anders verhält, als Sie das erwartet hätten:
*) Auch NOLOCK kann blockieren!
*) Ein Shared Lock blockiert einen Shared Lock!
*) Read Committed verhält sich wie Repeatable Read!
*) Online Index Operations sind keine Online Index Operations!
Thomas Hütter
Die Einführung für R-Neulinge hat Dir gefallen, jetzt möchtest Du die nächsten Schritte wagen, und echten R-Code ausprobieren? Wir vertiefen zwei Aspekte aus meiner Präsentation "Von SQL zu R und darüber hinaus" und wir werden sehen, wer sich an Benford's Gesetz hält, und wer nicht. Die drei Themen dieser leicht Code-lastigen Session sind:
- dynamisches SQL umgesetzt in R, als Beispiel zur Abfrage einer Multi-Mandanten-Datenbank
- Visualisierungen in R auf der Basis von Shapefiles und Choropleth-Techniken
- die Anwendung von Benford's Gesetz, in dem es eigentlich nicht um Betrug geht, zur möglich Aufdeckung von Betrug. (Level 200)
Benjamin Weissman
Die Anzahl der parallelen Dataflows in SSIS ist je nach Vorsystem begrenzt. Somit ist ein paralleles Laden nur bis zu einem gewissen Punkt möglich. Was aber, wenn Tabellen unterschiedlich stark bzw. schnell wachsen? Hier hilft nur ein regelmäßiges Optimieren, um zu vermeiden, dass Ressourcen verschwendet werden. Ihr habt verschiedene load Patterns deren Performance variiert? Oder ihr habt stark wachsende Strukturen mit hinzukommenden Fremdschlüsseln, die bei der Beladungs-Reihenfolge beachtet werden müssen? Wir sehen uns für diese Fälle an, wie wir diese mit Biml weitgehend automatisiert lösen und optimieren können!
Uwe Ricken
Sie kennen die Situation, dass eine Abfrage gestern noch schnell und zufriedenstellend gearbeitet hat und heute will sie nicht mehr so richtig? Was machen Sie in einer solchen Situation:
• Ich starte den Server neu (hat ja sonst auch immer geklappt)
• Ich lösche den Prozedur-Cache (hat mir mein DBA erzählt)
• Ich hole mir erst einmal einen Kaffee und überlege, was ich in dieser Session gelernt habe
Microsoft SQL Server benötigt Statistiken für ideale Ausführungspläne. Wenn Statistiken nicht aktuell sind, kann Microsoft SQL Server unter Umständen Ausführungspläne erstellen, die eine Abfrage um ein Vielfaches langsamer laufen lassen. Neben dem grundlegenden Verständnis für Statistiken werden in dieser Session Besonderheiten gezeigt, die nur einem kleinen Kreis von Experten bekannt sind. Nach einer kurzen Einführung in die Funktionalität von Statistiken (Level 100) geht es gleich in die besonderen Abfragesituationen, die ohne Erfahrungen zu falschen Entscheidungen führen. Folgende Themen werden unter Verwendung von sehr vielen Demos behandelt: • Einführung in die interne Struktur von Statistiken (200)
• Was sind Statistiken
• Header, Density, Histogram
• Aktualisierungsintervalle von Statistiken
• Beispiele für die Berechnung von geschätzten Datenzeilen (200)
• Veraltete Statistiken und fortlaufende Werte (300)
• Wenn Statistiken nicht aktualisiert werden (300)
• Eindeutige Indexe und nicht aktualisierte Statistiken (300)
• Leere Tabellen und Statistiken (400)
Christoph Seck
NoSQL ist ja inzwischen mit aller Gewalt auch bei uns Microsofties angekommen. Hadoop in diversen Varianten (klar), DocumentDB etc. etc. Einzig bei GraphDBs sah es doch recht mau aus. Trinity wurde zwischenzeitlich zwar Open Source, rührte sich sonst aber rein gar nicht. Trotzdem, spätestens seit der LinkedIn Übername brodelte die Gerüchteküche. Im Sommer dann der Doppelschlag: Cosmos und die GraphDB Integration im 17er. Anlass genug für uns einen näheren Blick zu riskieren: Was können GraphDBs eigentlich besser als unser vertrauter rein relationaler SQL Server? Und warum? Als Benchmark wählen wir den wohl etabliertesten Vertreter - Neo4J - und schauen was wir uns davon an Features abgucken können/wollen. Und dann wird es spannend: Was davon kann unsere Lieblingsdatenbank denn jetzt auch? Und wie sehen die dreckigen Details aus?
Markus Ehrenmüller
Computersysteme haben inzwischen gelernt, neue Krebstypen automatisch zu erkennen, Kreditkartenbetrug aufzudecken und natürliche Sprache zu verstehen. Sie helfen uns weit über eine eine simple Umsatzprognose hinaus, Kunden die passenden Produkte schmackhaft zu machen oder rechtzeitig zu erkennen, bevor sie zum Mitbewerb abspringen werden. Der Grund dafür sind weniger neuartige Algorithmen sondern viel mehr die heutzutage mögliche Rechenleistung, die einerseits die Zeit zwischen Experimentierphase (Lernen) und praktischer Anwendung verkürzt und andererseits die Algorithmen in Echtzeit anwenden lässt. Die Cloud bietet uns diese (nahezu) unlimitierte Rechenpower. Daher: Machine Learning ist die Killer Applikation, die der Cloud breiten Durchbruch in Anwendungsgebieten und Branchen verhelfen wird, die sich bis dato dem verschlossen haben. Kommen Sie in diese Session, wenn Sie mehr darüber wissen wollen, wie Machine Learning im allgemeinen und Azure Machine Learning im Speziellen funktioniert und wie Sie bereits am kommenden Montag mit den ersten Anwendungsfällen für Ihre Organisation loslegen können.
Andre Essing
SQL Server und Windows, seit Jahren ein unzertrennliches Paar und eine gute Kombination für die Verarbeitung von Daten. Mit SQL Server vNext wird sich dies jedoch ändern, denn aus dem Norden Europas, genauer aus Helsinki, möchte ein kleiner Pinguin der SQL Server Community beitreten. Die kommende SQL Server Version wird es nicht mehr ausschließlich für Windows geben. Ein Deployment der relationalen Datenbank Engine wird in naher Zukunft auch auf Linux und innerhalb von Docker möglich sein. Somit bietet der SQL Server nun mehr Einsatzmöglichkeiten und Anwendungsfälle als je zuvor. Aber wie funktioniert SQL Server on Linux? Was wird unterstützt, was nicht? Welche Szenarien sind möglich? Alle diese Punkte möchte in dieser Session besprechen.
Klaus Aschenbrenner
“Harte” Limitierungen im SQL Server
Wollten Sie immer schon einmal wissen wie der SQL Server reagiert, wenn Sie seine harten Limitierungen erreichen? Im Rahmen dieser Session werden wir versuchen unterschiedlichste Extremsituationen nachzustellen, und damit den SQL Server an seine Limitierungen bringen. Folgende Limitierungen werden wir uns hierbei näher ansehen:
*) Maximale Anzahl von Indexes
*) Maximale Anzahl von Datenbanken
*) Maximale Anzahl von Files & File Groups
*) Maximale Anzahl von Partitionen
*) Maximale Anzahl von Spalten
*) Maximale Anzahl von Parametern in einer Stored Procedure
Christoph Seck
Abstracts folgen
Klaus Aschenbrenner
Im Rahmen dieses Ganztages-Workshops arbeiten wir mit einer Standard-Installation vom SQL Server und lassen eine Workload mit einigen hundert Benutzern ausführen. Wie Sie sehr schnell erkennen werden, wird der SQL Server in enorme Performance-Probleme stürzen, und die Abfragezeiten aus Endbenutzer-Perspektive sind katastrophal. Was nun?
Uwe Ricken
Zum Tagesgeschäft eines DBA sowie von Beratern, die in Sachen „Microsoft SQL Server“ unterwegs sind, gehören die sorgfältige Analyse von SQL Server Systemen, wenn das Business oder der Kunde Performanceprobleme meldet. Im Workshop „Analyse von SQL Server“ wird an Hand von konkreten Beispielen ein Microsoft SQL Server auf verschiedene Problemfälle geprüft, die zu Engpässen führen, wenn sie nicht korrekt eingestellt sind.
Im Workshop werden die verschiedenen Problemanalysen durch Beispiele mit Erläuterungen zu den möglichen Auswirkungen demonstriert. Gleichzeitig wird ein Lösungsplan erarbeitet, an dem sich der Teilnehmer von den richtigen Einstellungen im Betriebssystem zu den Konfigurationseinstellungen in Microsoft SQL Server durcharbeiten kann. Last but not least werden Lösungswege aufgezeigt, wenn die Performance innerhalb einer einzelnen Datenbank als nicht ausreichend bewertet wird. Alle möglichen Performanceengpässe werden auf einem installierten Microsoft SQL Server mittels Skripten simuliert und ausgewertet. Die folgenden Analyseschritte werden im Laufe des Workshops behandelt:
• Einstellungen im Betriebssystem überprüfen und bewerten
• Analyse der Datenbanken auf Konfiguration, Nutzung und Systemauslastung
• Konfiguration und Analyse von TEMPDB
• Waits and Latches: Worauf wartet Microsoft SQL Server und welchen Einfluss haben die verschiedenen Wartevorgänge auf die Performance der Anwendungen
• Index Maintenance – wie werden Indexe verwendet, welche Indexe fehlen, wie ist der physikalische Zustand von Indexen zu bewerten.
Zum Abschluss der Bewertungen wird eine Vorlage vorgestellt, in der die Ergebnisse der Untersuchungen
der SQL Server Versionen vorgezeigt werden:
2008 / 2008R2
2012 / 2014 / 2016
Andreas Rauch
Scan oder Seek? Ein Sortieren im Abfrageplan, obwohl kein order by angegeben wurde? Tabellenabfragen benötigen mehr Seiten als die Tabellen eigentlich besitzen? Queries benötigen nur noch einen Bruchteil der Dauer nach Indexoptimierung. Um solche Phänomen zu verstehen, ist das Thema Indizes elementar. In diesem Workshop wird der Aufbau und die verschiedenen Arten von Indizes erläutert. An Hand von Beispielen werden schrittweise Indizes erstellt gemessen und bewertet, um eine optimale Strategie für ein Feintuning zu erreichen. Der Workshop richtet sich an Administratoren, die für ihr gesamtes System eine optimale Indexstrategie finden müssen, sowie auch an Entwickler, die ihre Abfrage verbessern wollen.
Meinungen von Teilnehmern der letzten Jahre.
Melden Sie sich hier für die Teilnahme an.
Je früher Sie buchen, desto günstiger.
Ja, Ich melde mich verbindlich für die Konferenz-Teilnahme an:
Veranstaltung: SQLdays Konferenz 2017
Ort: Erdinger Stadthalle
Termin: 09. bis 12. Oktober 2017
899€
Konferenz von Dienstag, den 10. - Mittwoch, den 11. Oktober.
Es gilt der Ticketpreis von 899 € (Brutto: 1069,81 €) pro Person für den Besuch der Konferenz.
je 499€
Workshop am Montag, den 09.10.2017
Die Konferenz-Tickets müssen zusätzlich erworben werden. Es gilt der Normalpreis von 499 € je Workshop (Brutto: 593,81) pro Teilnehmer.
je 499€
Workshop am Montag, den 09.10.2017
Die Konferenz-Tickets müssen zusätzlich erworben werden. Es gilt der Normalpreis von 499 € je Workshop (Brutto: 593,81) pro Teilnehmer.
je 499€
Workshop am Donnerstag, den 12.10.2017
Die Konferenz-Tickets müssen zusätzlich erworben werden. Es gilt der Normalpreis von 499 € je Workshop (Brutto: 593,81) pro Teilnehmer.
je 499€
Workshop am Donnerstag, den 12.10.2017
Die Konferenz-Tickets müssen zusätzlich erworben werden. Es gilt der Normalpreis von 499 € je Workshop (Brutto: 593,81) pro Teilnehmer.
je 499€
Workshop am Montag, den 12.10.2017
Die Konferenz-Tickets müssen zusätzlich erworben werden. Es gilt der Normalpreis von 499 € je Workshop (Brutto: 593,81) pro Teilnehmer.
Haben Sie noch Fragen zur Organisation oder zu Ihrer Anmeldung?
Sehr gerne stehe wir Ihnen jederzeit unter Tel.: +49 (0) 8677 9889-62 oder per E-Mail an events@ppedv.de zur Verfügung.
TIPP: 10% Rabatt mit 2 weiteren Kollegen für die Konferenz!
Melden Sie sich gleichzeitig mit 2 weiteren Kollegen Ihres Unternehmens zur Konferenz an und jeder von Ihnen erhält 10% Kollegen-Rabatt.
Allgemeines und Reiseinformationen
Kleidungsempfehlung: Casual Wear. Reiseinformationen finden Sie hier.
Gold Partner
Bronze Partner
Medien-Partner
So erreichen Sie die SQLdays Konferenz
Erdinger Stadthallen GmbH
Alois-Schießl-Platz 1
85435 Erding, Deutschland
Via Auto
Autobahn A9: Autobahnkreuz Neufarn,
Richtung Deggendorf (A92), Ausfahrt Erding
Autobahn A99: Autobahnkreuz München Ost,
Richtung Passau (A94), Ausfahrt Markt Schwaben
Via Öffentliche Verkehrsmittel
S-Bahn S2 im 20/40-Minutentakt zum Zentrum München bzw. zur Neuen Messe München. Die Stadthalle Erding erreichen Sie in 2 Gehminuten vom Stadtzentrum Erding, bzw. in 10 Gehminuten vom S-Bahnhof Erding (S 2). Ihre Verbindungsinformationen können Sie über folgenden Fremdanbieter-Service abrufen.
Via Flugzeug
Der nächste Flughafen ist der Münchener Flughafen und ist in 20 Minuten mit dem Auto zu erreichen.
Parken
Parken in der städtischen Tiefgarage (P1) mit direktem Zugang zur Stadthalle (Einfahrt Gießereistrasse), zum Veranstaltungstarif von € 3,00.