SQL Server Konferenz 2020. From March 3 - 5, 2020 in Darmstadt
SQL Server Konferenz 2020 Logo

SQL SERVER KONFERENZ 2020
FROM 3 TO 5 MARCH 2020
KONGRESSCENTER
DARMSTADT, GERMANY

Agenda scheduled!

  • PreCon Workshop german
    03.03. | 10.00 - ca. 17.00
    Level 200 Die Welt der Dokumente Jan "Janek" Fellien & Sia Ghassemi

    Ob nun die CouchDB für das Couch-Surfing-Portal entwickelt wurde oder nicht, lässt sich historisch nicht mehr ganz klar nachvollziehen. Auf jeden Fall sind Dokumenten-Datenbanken seit Anfang der 2000er Jahre ein stetig steigender Anteil auch in klassischen Applikationsumgebungen. Wärend die einen von Hype reden, sind andere vom Einsatz in Enterprise Applikationen überzeugt.
    Wir möchten in diesem Workshop zeigen, wie man im eigenen Arbeitsumfeld die Vorteile der Dokumenten-Datenbanken nutzen kann. Dazu gehören auch hybride Lösungen, bei denen relationale und dokumentenbasierte Datenbanken innerhalb einer Architektur zusammengeführt werden. Unterstützen wird uns dabei eine Übung, in der wir gemeinsam statt Tabellenschemata Dokumentenstrukturen planen.

  • PreCon Workshop english
    03.03. | 10.00 - ca. 17.00
    Level 300 Dr. DMV's Troubleshooting Toolkit Glenn Berry

    Dynamic Management Views and functions allow you to easily see exactly what is happening inside your SQL Server instances and databases with a high level of detail. You can discover your top wait types, most CPU intensive stored procedures, find missing indexes, and identify unused indexes, to name just a few examples. This session presents, demonstrates and explains a complete set of diagnostic DMV queries that you can easily use to detect and diagnose configuration and performance issues in your SQL Server instances and databases.

    This session goes into exhaustive detail on how to interpret the results of each of the diagnostic queries, including relevant background information on how to properly configure your hardware, storage subsystem, operating system, SQL Server instance and databases in order to avoid performance and scalability issues.

  • PreCon Workshop german
    03.03. | 10.00 - ca. 17.00
    Level 300 Azure Black Magic for SQL Server for Manager, Technical Consultant & Sales Consultants Patrick Heyde

    Azure Black Magic is a training Series for IT-Manager, Technical and Sales people to discover the Change in Designing Architectures & Operation Process on the Azure Way. This Session starts with an Overview of Design Elements in the Area of Data Processing and SQL Server tasks. After that, you receive a Task/Lab: Design something “….”, it will be something of common SQL & Data daily tasks and we define multiple options of create a solution from the traditional way and from the Azure Way. By comparing each solution we will analyze the Architecture in technical, business & costs points.

    Topics of the course:

    • Azure Data related Services like: Virtual Machines, Azure SQL DB, Table Storage, Blob-Storage, Snapshots.
    • Azure Storage Design & Stamps & Managed Disks
    • Azure Performance Planning & Rules
    • Rethinking Business Operation Process like Backup Strategies…
    • Rethinking Network, Storage, Hosting Options with Azure
    • Azure Cost Prediction of an Architecture & Datacenter
    • Building Azure Operation concept

    Requirement:

    • Everybody has an Azure Subscription with Azure Owner Rights
    • Trial Subscription possible
    • Required Azure Resources for Labs: max. 20 €

    Target group:

    • CIO / IT-Leiter
    • IT-Sales People
    • Technical Engineer / Architect

    Language:

    • German or English, realted to attendees (German preferred)
  • PreCon Workshop english
    03.03. | 10.00 - ca. 17.00
    Level tba Azure Synapse Team Piero Morano & Omid Afnan

    • Overview of Azure Synapse analytics (Why, How and What)
    • Deep dive into Azure Synapse blocks
      • Data exploration
      • Develop ( SQL pool, Serverless SQL, Spark, Code-free, Power BI)
      • Orchestrate
      • Monitor
      • Management Hub
    • Hands-on mini sessions (TBD based on capacity availability); will offer a few machines to drill down into specific exercises: Explore data with SQL, explore data with Spark, Power BI, build an ETE pipeline, data scientist.

  • PreCon Workshop english
    03.03. | 10.00 - ca. 17.00
    Level 300 Advanced Data Protection: Security and Privacy Assessments in SQL Server Thomas LaRock & Karen Lopez

    Modern database systems have introduced more support for security, privacy, and compliance over the last few years. We expect this to increase as compliance issues such as GDPR and other data compliance challenges arise.

    In this updated (30% new material) advanced workshop, we cover data security and privacy protection for SQL Server and Azure SQL Database. With demonstrations and several exercises, this workshop uses group labs to cover database and data protection techniques, including threat analysis and remediation. We'll look at the new features, why you should consider them, where they work, and where they don't.

    Discussion topics will include:

    • Data Categorization and Classification
    • Data Catalog and discovery
    • Encryption; Transparent Data Encryption, Always Encrypted
    • Data Masking
    • Row-level Security
    • Monitoring and Alerting with Azure Services
    • Data Governance
    • Threat Detection (SQL Injection, Anomalous Logins, Data Exfiltration)
    • Vulnerability Assessment

    Attendees will leave this session with an understanding of the following:

    • How to find and assess data assets, using modern tools and techniques
    • How to identify and tag sensitive data
    • How to perform cost, benefit, and risk analysis on threats and solutions
    • How to deploy features in the right location to best protect data
    • How to leverage security services to protect data
    • The day will include lecture style format as well as interactive discussions and exercises.

    Attendee prerequisites:
    Hands-on experience with SQL Server (any version) and Azure SQL Database. Basic understanding of database design concepts. Familiarity with basic Azure and Data Platform features. Laptops are required to participate in the hands-on labs.

  • Keynote german
    04.03. | 09.00 - 11.00
    Track 1 SQL Server Konferenz 2020
  • BREAK
    04.03. | 11.00 - 11.15
      Short break // Partner Exhibition
  • IM english
    04.03. | 11:15 - 12:15
    Track 1
    Level 200
    10 Steps to Total Data Compliance Grant Fritchey

    Making sure your organization is in compliance with the General Data Protection Regulation (GDPR) is good. However, have you also ensured that you're in compliance with the California Privacy and Protection Act (CPPA)? This session will walk you through 10 steps to help ensure that you are in compliance with the world's growing compliance regimes. Learn what you can do to help ensure that you're meeting the growing number of laws that affect us all.

  • DEV-OPS english
    04.03. | 11:15 - 12:15
    Track 2
    Level 300
    An End-to-End Approach to App and DB Security Mladen Prajdic

    Understanding how to reduce the attack surface area of applications and SQL Server environments is imperative in today's world of constant system attacks from inside and outside threats. Learn about the methodology to increase security related development practices, backed by real world examples. Including securely accessing a database, properly encrypting data, using SSL/TLS and certificates throughout the system, guarding against common front-end attacks like SQL Injection (SQLi) and Cross Site Scripting (XSS), etc.
    This session will include both T-SQL and .Net code to give you an overview of how everything works together.

  • AZURE german
    04.03. | 11:15 - 12:15
    Track 3
    Level 300
    Azure Projekte Real Life - ein Talk aus dem Nähkästchen Patrick Heyde

    Von IaaS bis PaaS. Seit 2012 bin ich in Azure Projekten und ich zeige ein paar Insights aus dem Projektordner.

  • BIG DATA & ANALYTICS german
    04.03. | 11:15 - 12:15
    Track 4
    Level 300
    Bau Dir Dein Modern Data Warehouse! – Von der Architektur zu konkreten Anwendungsfällen Jens Kröhnert

    Das Data Warehouse ist tot, es lebe das Data Warehouse! – Oder vielmehr: das MODERN Data Warehouse (MDWH). Der Nachfolger der klassischen Unternehmensdatenbank gilt als DAS Zukunftskonzept für die digitale Transformation. Denn: Dank Cloud-Technologien ist das MDWH jederzeit flexibel auf ganz unterschiedliche Anforderungen anpassbar, angefangen beim Reporting bis hin zu Künstlicher Intelligenz.

    Aber wie sieht eine geeignete Basisarchitektur aus? Welche Anpassungen sind in Hinsicht auf unterschiedliche Anwendungsfälle erforderlich? Jens Kröhnert liefert in seinem Vortrag die Antworten. Vor den Augen des Publikums baut er live ein Modern Data Warehouse in der Azure-Cloud auf und spielt konkrete Einsatzszenarien aus den Bereichen Echtzeit und Machine Learning durch. Die Teilnehmer werden dabei als Lieferanten für Streaming-Daten unmittelbar in die Session involviert. Ein Vortrag mit hohem Praxisbezug!

    Der Vortrag im Überblick:
    Einführung in das MDWH

    • Von Hadoop (Spark) zu Databricks
    • Gründe für Cloud-Migration/Anwendungsszenarien
    • Basisarchitektur

    Kunden-Case „Aluminium-Fertigung“

    • Ausgangssituation: Klassisches DWH OnPrem
    • Ziele: Echtzeit & Machine Learning in der Cloud

    Step by Step: Aufbau eines MDWH inkl. Streaming

    • Data Lake
    • Data Factory
    • Databricks
    • Streaming (Event Hub, Stream Analytics)
    • PowerBI
  • BI german
    04.03. | 11:15 - 12:15
    Track 5
    Level 300
    DAX Troubleshooting Imke Feldmann

    DAX (Data Analysis Expressions) ist eine sehr mächtige Formel- und Abfragesprache, die in Power BI, SSAS und Power Pivot hochkomplexe Auswertungen erlaubt. Jedoch führt die Komplexität von DAX leider nicht selten dazu, dass Ausdrücke nicht oder nur teilweise richtige Ergebnisse zurückliefern. Ebenso kann es zu Problemen mit der Abfragegeschwindigkeit kommen. In dieser Session werden Techniken und Tipps zum Debuggen von DAX-Ausdrücken und zur Analyse von Performanceproblemen erläutert. Dabei werden auch die Grundzüge des kostenlosen Tools „DAX Studio“ erläutert.

  • TBA english
    04.03. | 11:15 - 12:15
    Track 6
    Level tba
    Everything you need to know about storing strings in SQL Server and Azure SQL DB Pedro Lopes

    As businesses and applications reach global scale, you know that SQL Server and Azure SQL can support international applications using Unicode. And you’ve been working with SQL Server for long, so handling and storing strings is not a mystery. Or is it? It depends – it’s all about knowing what’s there, and making informed choices when you design the database. You think you knew everything about storing strings in SQL Database? Maybe not… In this session you will learn about what Unicode encoding you want to use for your scenario, what are the performance differences, and even debunk a few SQL Server myths along the way.

  • BREAK
    04.03. | 12.15 - 13.30
      Lunch // Partner Exhibition
  • DBA english
    04.03. | 13:30 - 14:30
    Track 1
    Level 400
    Demystifying Query Store Plan Forcing Milos Radivojevic

    In this session, you will see Query Store in action and learn from many real-world examples, the author experienced in the last three years in the complex SQL Server production environment with heavy workloads.
    Plan forcing is a very powerful feature, but a bit controversial. This session will demystify it; you’ll see what Query Store exactly does when an execution plan is forced when it is respected, when and why isn’t, and the most important – when you have to force a plan in the production system, and when forcing can bring additional troubles.
    We’ll also cover in detail is automatic tuning. You will understand benefits and potential issues you can have with this feature and how to leverage it with no or minimal risk.

  • BIGDATA & ANALYTICS german
    04.03. | 13:30 - 14:30
    Track 2
    Level 300
    SQL Server 2019 Big Data Cluster: Make SQL Server your Data Hub for everything Ben Weissman

    With SQL Server 2019, Microsoft is introducing Big Data Clusters to make SQL Server your one stop shop for all your data needs.
    In this session we are going to explore the capabilities of the exciting new feature. How does it work and how can we work with datasets that are non-relational?

  • BI german
    04.03. | 13:30 - 14:30
    Track 3
    Level 200
    PowerPlatform Dataflows –PowerQuery (and more) in the Cloud Wolfgang Strasser

    With PowerPlatform dataflows, users can bring PowerQuery functionality to a cloud-only life. Created in the cloud, processed in the cloud and storing results in the cloud, dataflows can be seen as cloud native part of the ETL within the PowerPlatform.
    After their initial start in the Power BI universe, they now reached out into other parts of the PowerPlatform and be one of the future options of ETL pipelines to transfer data into data lakes.
    In addition to data transformation, dataflows can be enriched with AI functionality to bring more ML power into your ETL processes.
    Join this session if you want to learn more about the current feature set available and see what is new and possible with data preparation in the cloud with PowerPlatform dataflows.

  • IM german
    04.03. | 13:30 - 14:30
    Track 4
    Level tba
    Controll my Tesla Car with Azure, PowerBI, PowerShell & RaspberryPI Lars Platzdasch

    In this Session shows MCT MCSE Lars Platzdasch how we can use a Tesla-Car with Microsoft-technologies, like PowerShell, Azure, PowerBI and RaspberryPI to control the car.
    Find inspiration to use a IOT Device with 4 Weels with usage samples and a fun factor.

  • BI & ANALYTICS english
    04.03. | 13:30 - 14:30
    Track 5
    Level 400
    Back to the Future: Accelerating the Cloud Migration of Legacy SSIS with Azure Data Factory Sandy Winarko

    This session focuses on the new features to unblock/accelerate cloud migration of legacy SSIS, such as 2008 or earlier versions, with Azure Data Factory (ADF). We will first show you how to provision Azure-SSIS Integration Runtime (IR) – dedicated ADF servers for running SSIS – and extend it with custom/Open Source/3rd party components. We will next show you how to enable the following scenarios: running SSIS packages stored in Azure Files as first-class activities in ADF pipelines, accessing Azure SQL DB/Managed Instance with OLEDB connectors that are configured for Azure Active Directory authentication with ADF managed identity, testing SSIS packages in ADF from SSDT, scheduling SSIS jobs in ADF from SQL Server Agent/3rd party orchestrators that invoke Azure-enabled dtexec.exe, etc. We will finally show you the complete SSIS Migration Playbook to perform batch package assessments and batch package/job migrations using Data Migration Assistant/Service, dtutil.exe, scripts, etc.

  • TBA english
    04.03. | 13:30 - 14:30
    Track 6
    Level tba
    Azure SQL Database Edge - Optimized SQL Engine for Edge/IoT Computing Pedro Lopes

    Azure SQL Database Edge offers the same SQL database engine which is optimized to run at the edge with a small resource footprint and with built-in capabilities like streaming support. This session covers how Microsoft is enabling intelligence over data at the edge and creating an ability to "develop once, deploy anywhere" with its database offering at the edge. Learn about the common scenarios that customers are implementing with Azure SQL Database Edge and new features that the product offers for the intelligent edge.

  • BREAK
    04.03. | 14:30 - 14:45
      Short break // Partner Exhibition
  • DBA german
    04.03. | 14:45 - 15:45
    Track 1
    Level 300
    Was kann Machine Learning eigentlich für den Alltag des SQL DBAs tun? Sascha Lorenz

    In dieser Session wird im Detail erläutert, wie Datenbank Administratoren die Möglichkeiten von Machine Learning nutzen können, um viele wiederkehrende Aufgaben noch effizienter erledigen zu können. Insbesondere wird sich die Vereinfachung der zahlreichen täglichen Wartungsaufgaben angeschaut. Zwar gibt es in der Community eine ganze Reihe von Faustformeln für die Optimierung von Indexes, Statistiken und Backups, aber lässt sich das mit ein wenig „Mathe“ nicht noch etwas eleganter lösen?
    Hierfür wird gezeigt, wie der DBA mit Python seine Prozesse unterstützen kann und welche Daten gesammelt werden sollten, um eine gute Basis für die späteren Modelle zu haben. Zum Verständnis wird auch etwas (und ohne viel Mathe) auf die Hintergründe von Machine Learning eingegangen. Vorkenntnisse sind aber nicht notwendig.
    Die gezeigten Ansätze sind sowohl für SQL Server in einer Cloud Umgebung als auch für on-premises Installationen gültig.
    Alle gezeigten Python & T-SQL Skripte werden den Teilnehmern zur Verfügung gestellt.

  • DBA english
    04.03. | 14:45 - 15:45
    Track 2
    Level 300
    SQL Server Virtualization and I/O Patterns Argenis Fernandez

    In this session we will explore the SQL Server engine’s I/O patterns and how they play into virtualization infrastructure. With the knowledge you’ll gain in this session you will be able to have more educated conversations with your cloud/infrastructure/VM/storage administrators in order to get the most performance and use the best features for your SQL Server (or SQL in Azure/AWS/GCP) environments.

  • AZURE english
    04.03. | 14:45 - 15:45
    Track 3
    Level 200
    Data scientists have left ... How will I deploy their work? Cédric Charlier

    That's it, data scientists have left the house! Behind them, some scripts written in Python or R, thousands of CSV files, three sheets and two whiteboards of mathematical equations, many PowerPoint presentations and clear instruction from the CEO: go to production ASAP! Unfortunately, no trace of a deployment procedure. Hopefully, this session will explain how to industrialize data scientists' scripts. How to import and refactor code written in Jupyter Notebooks within VS Code, how to put in place the best practices of DevOps and apply them to Machine Learning with Azure Pipelines and some other tips and tricks for a successful go-live.

  • BI english
    04.03. | 14:45 - 15:45
    Track 4
    Level 300
    Monitor and Document your Power BI environment in Power BI with Power BI Isabelle Van Campenhoudt

    Self-service BI and the liberation of users and workspace need good monitoring and rigorous documentation to keep control of your production.
    In this session, we will use the Power BI rest API to build a monitoring/documenting solutions of your whole Power BI solutions.

  • BI english
    04.03. | 14:45 - 15:45
    Track 5
    Level 200
    Advanced Analytics Features In Power BI Chris Webb

    Power BI is a great data visualisation tool: it makes it easy for you to show your users the answers to the questions they ask. It’s much more than that, though, because it can help you explore your data, show hidden trends and find questions you didn’t even know you wanted to ask! In this session you’ll learn about some of these advanced analytical features in Power BI, including: the Analytics pane on visuals; the Key Influencers visual and other AI features; natural language querying with Q&A; “explain the increase/decrease” and “find where the distribution is different”; and more.

  • BIGDATA & ANALYTICS german
    04.03. | 14:45 - 15:45
    Track 6
    Level 300
    Serverless low-cost ETL mit Azure Functions Markus Raatz

    Es gibt sehr komfortable, aber teure Lösungen, Daten in unsere Big Data-Umgebungen in Azure zu bekommen: Azure Data Factory, mit Mapping Dataflows, Integration Services Runtime in Azure, Event Hub mit Stream Analytics und vieles mehr. Leider kosten diese Tools im Betrieb ordentlich Geld, besonders, wenn die Daten sehr häufig geladen werden sollen. Eine Alternative können selbst geschriebene Azure Functions sein, für die man gar kein genialer Entwickler sein muss; es reicht schon, wenn man etwas Liebe zum Skripting hat, z.B. mit PowerShell oder Python!

  • BREAK
    04.03. | 15:45 -16:15
      Short break // Partner Exhibition
  • DEV-OPS english
    04.03. | 16:15 - 17:15
    Track 1
    Level 300
    Investigate TempDB like Sherlock Holmes Lord Richard Douglas

    The system database TempDB has often been called a dumping ground, even the public toilet of SQL Server. (There has to be a joke about spills in there somewhere). In this session you will learn to find those criminal activities that are going on deep in the depths of SQL Server that are causing performance issues, not just for one session, but that affects everybody on that instance. You will learn what you can do to reduce issues by investigating your hardware, your SQL Server configurations, and your coding techniques.

  • DEV-OPS english
    04.03. | 16:15 - 17:15
    Track 2
    Level 200
    Execution plans ... where do I start? Hugo Kornelis

    SQL (the language) is not a third generation language, where the developer tells the computer every step it needs to take. It is a declarative language that specifies the required results. SQL Server itself will figure out what steps it takes to get to those results. Most of the time, that works very well. But sometimes it doesn't. Sometimes a query takes too much time. You need to find out why, so you can fix it. That's where the execution plan comes in. In the execution plan, SQL Server exposes exactly which steps it took for your query, so you can see why it's slow.
    However, execution plans can be daunting to the uninitiated. Especially for complex queries. Where do you even start?
    In this session you will learn how to obtain execution plans. and how to start reading and understanding them.

    Target audience: Database developers and DBAs who understand that execution plans can be a good tool to improve query performance, but have no experience yet with this tool. No prior knowledge of execution plans is required, but attendees are expected to understand indexes, and to be able to read and write basic and slightly advanced T-SQL queries.

  • DBA english
    04.03. | 16:15 - 17:15
    Track 3
    Level 100
    High Availability/Disaster Recovery 101 Glenn Berry

    How do you design a SQL Server 2019 infrastructure in order to meet specific Recovery Time Objective (RTO) and Recovery Point Objective (RPO) service levels? There are many aspects to consider, from technology choices and licensing, to policies and procedures. This session outlines and compares the various HA/DR technologies available in SQL Server 2019, showing how you can combine them to design and build a solution to help meet your HA/DR goals. It also covers how to come up with the necessary policies to make the technology actually work in your situation.

  • BIGDATA & ANALYTICS german
    04.03. | 16:15 - 17:15
    Track 4
    Level 300
    Cloud based Data Lake – So geht moderne Data Plattform heute Guido Jacobs

    Die digitale Transformation benötigt und erzeugt sehr viele unterschiedliche Daten. Es wird allerhöchste Zeit, dass sich Unternehmen dieser Herausforderung stellen und anfangen, neue Wege zu beschreiten. Denn mit den bisherigen Ansätzen wird man diese Flut und Varianz an Daten nicht bewältigen können. Guido Jacobs zeigt Ihnen in dieser Session einen Weg auf, wie Sie mit einer Cloud-basierten Big-Data-/Data-Lake-Architektur diese Herausforderungen flexibel meistern können und auch für zukünftige Herausforderungen bestens aufgestellt sind. Es stellt sich aus heutiger Sicht nun nicht mehr die Frage, ob man Cloud Services nutzen sollte, sondern vielmehr wie schnell Sie den internen Schalter umlegen und die vorhandenen Blockaden lösen können!

  • AZURE german
    04.03. | 16:15 - 17:15
    Track 5
    Level 300
    Data engineering pattern in der Azure Data Factory Stefan Kirner

    Die Data Factory steht wie keine anderer Dienst auf Azure für Daten-Ladeprozesse. Allerdings kann man diese mit dem Managed Service inzwischen auf viele unterschiedliche Arten implementieren. Die Palette reicht von der reinen Orchestrierung von Verarbeitungsschritten auf Big Data Clustern über klassische ETL Prozesse mit den Integration Services bis hin zu den neuen Spark-basierten Mapping oder Wrangling Data Flows. Wie können denn auch on-premises Datenquellen oder globale Szenarien mit ADF adressiert werden?
    In dem Vortrag werden die typischen Muster für Datenverarbeitung in der Azure Data Factory aufgezeigt und verglichen. Das wird abgerundet mit best practices zum Application Lifecylce Management.

  • BREAK
    04.03. | 17:15 - 17:30
      Short break // Partner Exhibition
  • DEV-OPS English
    04.03. | 17:30 - 18:30
    Track 1
    Level 300
    In-memory OLTP - non clustered hash vs. range index Torsten Strauss

    As part of the in-memory OLTP engine, Microsoft has introduced two new index types - the non-clustered hash and range index. Both indices are fundamentally different from the on-disk indexes, and both indices serve a different purpose in an in-memory database. In this session (Level 300), we will look at the two in-memory index types to understand how they are constructed and when the non-clustered hash index is preferable to the range index, and vice versa.

  • BIGDATA & ANALYTICS german
    04.03. | 17:30 - 18:30
    Track 2
    Level 300
    Databricks for the SQL Developer Gerhard Brueckl

    Big Data and SQL do not have a lot in common. However, over the last couple of years this changed, and more and more people want to integrate the data from their Big Data systems into their SQL data warehouses. The most important technologies in the Big Data space are Spark as a technology itself and Databricks as a PaaS solution hosting it. These new tools may be frightening in the beginning but once you get to know them you will realize that they are quite similar to your regular SQL tools. And this is what this session is about - giving a regular SQL developer insight into Big Data and show how SQL can still be used to do Big Data processing with Spark and Databricks.

  • AZURE english
    04.03. | 17:30 - 18:30
    Track 3
    Level 200
    Infrastructure as Code with Terraform John Martin

    With ever increasing complexity in data platform and application solutions, it is becoming ever more important to take people out of the loop when it comes to system provisioning. Infrastructure as code is the way forward with Azure Resource Manager Templates, Google Deployment Manager, or AWS Cloud Formation.
    But what if you need to use multiple cloud vendors, or even build a hybrid environment?
    This is where Terraform from Hashicorp can step in, one solution that has a provider model that will interact with Azure, AWS, Google, and others. Meaning that you only need to learn one syntax. Add that to the automation potential and now we have something that can really help get us down the road to infrastructure as code.
    This session will take an introductory look at how infrastructure can be defined as code and be shipped to standardise the deployment process and minimise the chance of mistakes creeping in when deployed by different members of Development or Operations.

  • BI German
    04.03. | 17:30 - 18:30
    Track 4
    Level 300
    Time Intelligence in DAX – Lösungen für verschiedene Kalender (inkl. 4-4-5) Marcus Möhle

    DAX bietet von Haus aus zahlreiche Funktionen für Time Intelligence an. Diese funktionieren nicht nur auf dem gewöhnlichen Kalender, sondern auch auf einfachen Fiskalkalendern die verschoben zum gewöhnlichen Kalender sind.
    Anhand mehrerer Beispiele wird gezeigt auf welchen Kalendern die integrierten Time Intelligence Funktionen angewendet werden können. Für Fiskalkalender mit individuellen Periodengewichtungen (z.B. 4-4-5, 5-4-4, etc.) müssen je nach Unternehmensanforderung eigene Berechnungslogiken entwickelt werden. Hier werden Lösungen sowohl für einen klassische als auch speziellen 4-4-5-Kalender gezeigt.

  • BI german
    04.03. | 17:30 - 18:30
    Track 5
    Level 200
    DAX - Foundational musings Tom Martens

    Es werden ausgewählte Fragestellungen aus der Power BI Community (https://community.powerbi.com) behandelt, diese Fragestellungen sind alles andere als speziell, vielmehr berühren sie Aspekte, die für ein fundamentales Verständnis von DAX essentiell sind. Die Fragestellungen zeigen Zusammenhänge zwischen wesentlichen Konzepten wie dem Evaluation Context, dem Scope von Variablen und Table Iterator functions wie SUMX. Die Fragen bieten neue Blickwinkel auf vermeintlich einfache und bekannte Konzepte und stellen dadurch das eigene Verständnis dieser Konzepte auf die Probe.
    Alle Fragestellungen werden durch Slides (Was sind die zugrunde liegenden Konzepte) und Power BI Dateien (einfache Datasets und viele erklärende DAX measure) erläutert.

  • BI english
    04.03. | 17:30 - 18:30
    Track 6
    Level 300
    Azure Key Vault, Azure Dev Ops and Data Factory how do these Azure Services work perfectly together! Erwin de Kreuk

    Can we store our Connectionstrings or BlobStorageKeys or other Secretvalues somewhere else then in Azure Data Factory(ADF)? Yes you can! You can store these valuable secrets in Azure Key Vault(AKV).
    But how can we achieve this in ADF? And finally how do we deploy our DataFactories in Azure Dev Ops to Test, Acceptance and Production environments with these Secrets ? Can this be setup dynamically?

    During this session I will give answers on all of these questions. You will learn how to setup your Azure Key Vault, connect these secrets in ADF and finally deploy these secrets dynamically in Azure Dev Ops. As you can see a lot to talk about during this session.

  • DAMON'S PARTY English
    04.03. | 18.30 - 24.00
    Track 1
    Damon's Datamonster Party & Come together

  • DEV-OPS german
    05.03. | 09:00 - 10:00
    Track 1
    Level 300
    SQL Server 2019 TDE oder AE ? Ralf Dietrich

    Es ist keine Frage mehr, ob man verschlüsseln soll. Vielmehr ist zu entscheiden, welche Methode an welcher Stelle Sinn macht und wie man es richtig implementiert. Hier wollen wir die Architektur und Methodik der transparenten Datenbankverschlüsselung (TDE) mit Always Encrypted (AE) vergleichen und beispielhaft anlegen. Dabei spielen natürlich die Neuerungen von SQL 2019 eine Rolle, auch wenn einiges bereits mit den Vorgängerversionen möglich ist.

  • DEV-OPS german
    05.03. | 09:00 - 10:00
    Track 2
    Level 300
    SQL Server 2019 aus den Augen eines Entwicklers Thorsten Kansy

    Microsoft hat mit SQL Server 2019 das nächste Major Release vorgestellt. In dieser Session stellt ihnen Thorsten Kansy in übersichtlicher Form Neuerungen zu den Themen wie Performance Enhancements, "Secure Enclaves", Hochverfügbarkeit, generelle Verbesserungen, etc. vor. Der Fokus ist dabei auf das gerichtet, was ein Programmierer von der dieser Plattform wissen sollte und generell wird nichts Spannendes ausgelassen.

  • DBA english
    05.03. | 09:00 - 10:00
    Track 3
    Level 200
    Chaos Engineering for SQL Server Andrew Pruski

    In this session we will explore the concept of Chaos Engineering, its core concepts, and how it has been implemented at various companies.
    Then we'll look at how it can be implemented with regard to SQL Server. SQL has various different high availability solutions but can you be sure that they'll react as expected to a real world issue? Has your HA architecture only ever been tested in a planned maintenance window?
    We'll also have some fun by looking at KubeInvaders, a chaos engineering tool for Kubernetes...using Space Invaders!
    This session is for SQL Server DBAs and Developers who want to know how Chaos Engineering works and want to learn its main principles.

  • BIGDATA & ANALYTICS german
    05.03. | 09:00 - 10:00
    Track 4
    Level 300
    Neues in Azure Machine Learning Marcel Franke

    Azure Machine Learning ist Microsofts Machine Learning Plattform und kann für alle Arten von maschinellem Lernen verwendet werden – von klassischem Machine Learning bis zu Deep Learning und für überwachtes und nicht überwachtes Lernen. Unabhängig davon, ob Sie das Schreiben von Python- oder R-Code oder die Nutzung von Optionen ohne bzw. mit nur wenig Code (z. B. per Designer) bevorzugen, können Sie in einem Azure Machine Learning-Arbeitsbereich hochpräzise Machine Learning- und Deep Learning-Modelle erstellen, trainieren und nachverfolgen.

    In dieser Session möchte ich die Neuerungen von Azure Machine Learning vorstellen und die nahtlose Integration in andere Azure Services, wie z.B. Azure Databricks, Kubernetes oder IoT Hub.

  • BI german
    05.03. | 09:00 - 10:00
    Track 5
    Level 200
    Self-Service AI mit Power BI Desktop Markus Ehrenmüller-Jensen

    Power BI Desktop ist Microsoft’s kostenloses Werkzeug um Self-Service BI zu betreiben. Es liefert jeden Monat spannende neue Features und Gartner hat es 2019 zu dem führenden BI-Tool erklärt (das Tableau und Qlik hinter sich gelassen hat). In diesem Vortrag wollen wir uns ansehen, was Power BI Desktop in Sachen Artificial Intelligence zu bieten hat. Diese Funktionen reichen von unscheinbaren Kontextmenüs, die z. B. Abweichungen über die Zeit erklären können bis zur Möglichkeit über einen in Azure Machine Learning selbst erstellten web service die in Power BI Desktop geladenen Daten anzureichern.

    Konkret werden wir Sie die folgenden Features live erleben:

    • Q & A
    • Quick Insights
    • What-if Parameter
    • Analytic Line
    • R Integration
    • Cognitive Services
    • Azure Machine Learning
  • BI english
    05.03. | 09:00 - 10:00
    Track 6
    Level 200
    Beyond IoT Real-time Data Ingestion with Azure Stream Analytics Paul Andrew

    The desire and expectation to use real-time data is constantly growing, businesses need to react to market trends instantly. In this new data driven age a daily ETL load/processing window isn’t enough. We need a constant stream of information and analytics achieved in real-time. In this session will look at how that can be achieved using Azure Stream Analytics. Building streaming jobs that can blend and aggregate data as it arrives to drive live Power BI dashboards. Plus, we’ll explore how a complete lambda architecture can be created when combining stream and batch data together.

  • BREAK
    05.03. | 10:00 - 10:15
      Short break // Changing Rooms
  • DBA english
    05.03. | 10:15 - 11:15
    Track 1
    Level 200
    Think PowerShell and SQL is meh? Meet dbatools! Rob Sewell

    Come and join one of the creators of the most popular SQL Server open source PowerShell module and learn how we have used blog posts from many of the SQL community as inspiration for over 300 commands written by over 80 contributors. Let me show you how easy it is to use PowerShell to accomplish many everyday tasks straight from the command line with the community developed module dbatools.
    Afraid of PowerShell?
    Worried its too complicated?
    Don't want to go through the learning curve?

    Let me show you with plenty of demos how easy and straight forward it can be and I will save you time starting Monday.
    Want to restore an entire servers databases to the latest available point in time of the backups in just one line?
    Be useful to know the Last DBCC Check for your entire estate in only one line of code?
    Need to test your restores but its complicated?
    and many many more
    All this in a fast paced, fun session.

  • DEV-OPS english
    05.03. | 10:15 - 11:15
    Track 2
    Level 300
    Protecting Data with Data Masking in SQL Server and SQL DB Karen Lopez

    Dynamic Data Masking has been available since SQL Server 2016. In 2019, we now have an option for static data masking. But there are trade-offs with using both. In this session we will discuss:

    • Overview of Data Protection with Data Masking
    • Dynamic Data Masking
    • Static Data Masking
    • Security vs. Privacy
    • Pros and Cons of Data Masking

    We’ll end with 10 tips for ensuring data masking is the right solution for your team and how to best leverage these features.

  • AZURE german
    05.03. | 10:15 - 11:15
    Track 3
    Level 300
    Edge me if you can: IoT, AI und SQL Constantin "Kostja" Klein

    Edge Computing ist bereits seit den 90er Jahren ein Begriff. Allerdings nimmt das Thema erst jetzt - im Zeitalter von Cloud, IoT und AI - so richtig an Fahrt auf. Denn es stellt sich heraus, dass je nach Szenario und Anforderung, nicht alle Daten und deren Verarbeitung in die Cloud verlagert werden können. Das gilt insbesondere für viele IoT Projekte, in denen Konnektivität nicht immer garantiert werden kann, private Daten geschützt werden müssen oder eine schnelle und zuverlässige Verarbeitung garantiert werden muss. Diese Erkenntnis schlägt sich auch darin nieder, dass eine immer größere Zahl an Microsoft Technologien und Services auch auf Edge Devices genutzt werden kann.
    In dieser Session zeigen wir, wie diese Microsoft Technologien und Services auf Edge Devices deployed werden und dort als Teil einer Gesamtlösung zum Einsatz kommen können.

  • DEV-OPS german
    05.03. | 10:15 - 11:15
    Track 4
    Level 100
    Scrum (Agile Vorgehensweisen) und Business Intelligence Projekte? Geht das? Philipp Lenz

    In diesem Vortrag werden die Risiken und Chancen von Agiler Business Intelligence / Datenbank- Entwicklung beleuchtet. Im Fokus steht hier Scrum und wie dieses Framework in einem BI “Projekt” angewendet wird und was hier alles zu tun ist, um dieses Vorhaben zum Erfolg zu führen. Dazu werden auch die technischen Werkzeuge im Microsoft Umfeld mit betrachtet.

  • DBA english
    05.03. | 10:15 - 11:15
    Track 5
    Level 300
    Managing Memory for Optimal Performance Lord Richard Douglas, powered by SentryOne

    Memory is one part of the holy trinity of resources consumed by SQL Server, the others being CPU and disk. Most people know how to look at disk latency and throughput and then take remedial measures to fix those issues. But what about memory issues?
    In this session, you will learn how SQL Server uses memory and various caches, how to gauge memory pressure, and how to address the significant problems it can cause.
    You will leave with a much clearer understanding of how to monitor and manage memory consumption within SQL Server using native Dynamic Management Objects and SentryOne.

  • AZURE German
    05.03. | 10:15 - 11:15
    Track 6
    -
    Corporate Data Quality vs. Data Science Workloads Ralph Kemperdick

    In dem Vortrag wird das Spannungsverhältnis zwischen Corporate Data Quality und Data Science Workloads beleuchtet. Hierbei werden wir u. a. verschiedene Vorgehens-Modelle erörtern.
    Der Fokus liegt hierbei auf den Azure Services: Azure Synapse, ADF, SQL DW, Power BI, …

  • BREAK
    05.03. | 11:15 - 11:30
      Coffee break // Partner Exhibition
  • DEV-OPS german
    05.03. | 11:30 - 12:30
    Track 1
    Level 300
    Partitioning for Beginners Uwe Ricken

    Probleme bei der Ausführung von Abfragen, die zu lange dauern, da immer die vollständige Tabellen gescannt werden muss? Das Maintenancefenster für Indexmanagement und Statistikmanagement reicht nicht mehr aus, weil die Datenbank(en) zu groß sind? Das Laden von Daten blockiert den Zugriff auf dringend von der Applikation benötigte Tabellen? Wer mindestens eines der oben genannten Probleme kennt, sollte sich intensiver mit der Partitionierung von großen Tabellen beschäftigen. In dieser Session, die die Grundlagen der Partitionierung behandelt werden für alle genannten Probleme Lösungen mit Hilfe von Partitionierung gezeigt.

    • Das Laden von Daten dauert nicht mehr Stunden sondern Sekunden
    • Index- und Statistikmaintenance werden in einem Bruchteil der Zeit durchgeführt
    • Abfragen können schneller laufen, da sie nur in den Partitionen suchen, die die gesuchten Daten enthalten.
  • DEV-OPS english
    05.03. | 11:30 - 12:30
    Track 2
    Level 300
    2 Fast 2 Furious - designing for speed, concurrency, and correctness Mark Broadbent

    With the multitude of isolation levels, concurrency models, and specialist technologies available in SQL Server, it is no surprise that transaction throughput and correctness can be directly correlated to the ability and knowledge of the person that wrote the code.
    In this session, we will reveal how SQL Server concurrency and correctness often goes wrong, how we can avoid this, and how we can use our knowledge to design and develop for optimal server throughput for our applications and processes using tips and tricks gained from real-world scenarios.
    We will cover SQL Server’s traditional locking model, In-Memory OLTP, Columnstore, Delayed Durability, and many other technologies and techniques you can use to make your transactions more robust.

  • BIG DATA & ANALYTICS english
    05.03. | 11:30 - 12:30
    Track 4
    Level 200
    Big Time - A Glance at Azure Time Series Insights Sandra Geisler

    In this talk we will delve into the particularities of time series data.
    We will introduce what time series data is and which specific systems and services exist to support the management and analysis of time series data. Specifically, we will take a look at Azure Time Series Insights and its functionality. We will compare it (mainly) with the Open Source system InfluxDB and the TICK Stack utilizing a practical example which covers the setup and implementation of an analysis task and visualize the near real-time results accordingly.

  • BIGDATA & ANALYTICS english
    05.03. | 11:30 - 12:30
    Track 5
    Level 300
    Analyze petabytes of data using T-SQL and serverless Synapse Analytics service Jovan Popovic

    Azure Synapse On-demand Analytics service is the next-gen technology for querying big data in Azure cloud. This is serverless T-SQL endpoint that enables us to use pure T-SQL language to query various data formats stored on Azure Blob Storage and Azure Data Lake.
    If you ever wanted to use Polybase or OPENROWSET to query data on Azure Storage without pre-provisioning Azure SQL Database or Data Warehouse, this might be the right solution for you. You don’t need to provision data warehouse or database and always pay for resources if you just need to query external data on storage. Azure Synapse On-demand Analytics will directly query data on your storage, and you will pay-per-usage in serverless mode.
    Forget about provisioning data warehouses and databases and implementing complex ETL to load data from Data Lake storage just to analyze it. Azure Synapse On-demand Analytics enables you to keep your big data on Azure storage and just query it using T-SQL surface area without any unnesecaary data movement.
    Azure Synapse On-demand Analytics enables you to use standard External Tables and OPENROWSET function to query remote data, but also introduces some T-SQL enhancement in these functions that will make your big-data analysis easier. On this session you can learn about new T-SQL functionalities available in Azure Synapse On-demand Analytics and other capabilities of this service that will probably represent the future of big-data analytics in Azure cloud.

  • BI German
    05.03. | 11:30 - 12:30
    Track 6
    Level 300
    ADF Wrangling Data Flows Christoph Seck

    ADF Wrangling Data Flows - aka PowerQuery goes Spark
    Und PowerQuery/M nimmt die nächste Bastion. Unter dem Namen "Wrangling Data Flow" hält es vollwertigen Einzug in die Azure Data Factory.
    Und ja, genauso wie bei den "klassischen" Data Flows in der ADF, läuft das Ganze dann unter der Haube auf Spark.
    In dieser Session wollen wir zunächst schauen was bei den Wrangling Data Flows schon geht (und was noch nicht), wie es geht und wie es performt.
    Als Ergänzung dann der Vergleich mit Dataflows in Power BI.

  • BREAK
    05.03. | 12:30 - 13:30
      Lunch // Partner Exhibition
  • DBA german
    05.03. | 13:30 - 14:30
    Track 1
    Level 100
    Kubernetes für DBAs Björn Peters

    Einstieg in Kubernetes
    Warum auch der onprem SQL Server DBA sich mit Containern und Kubernetes auseinandersetzen sollte… was ist Kubernetes? Wie und wofür kann man Kubernetes einsetzen? Und was hat das Ganze mit Azure Arc zu tun!

  • DEV-OPS english
    05.03. | 13:30 - 14:30
    Track 2
    Level 300
    Performance Tuning Without Changing Code Thomas LaRock

    We all know that great database performance starts with great database design.
    Unfortunately, your database design stinks. We all wish we could change the database design or T-SQL code, but there are times when it is not possible. As database usage patterns push poor database designs to their performance limits, DBAs are handed an impossible task: Make performance better but don’t change anything.
    Attend this session and learn about the options available to help you fix database performance issues without touching code.

  • AZURE german
    05.03. | 13:30 - 14:30
    Track 4
    Level 300
    Azure Cognitive Services voll auf Docker Alexander Klein

    Microsoft Cognitive Services (ehemals Project Oxford) sind eine Reihe von APIs, SDKs und Services. Sie stehen Entwicklern zur Verfügung, um ihre Anwendungen intelligenter, ansprechender und auffindbarer zu machen. Cognitive Services erweitern Microsofts KI Plattform.
    Wie kann man diese API’s nutzen, wenn man nicht seine Daten in ein Azure Data Center schicken möchte? Nicht jeder Datensatz sollte das eigene Unternehme verlassen. Deshalb bietet Microsoft jetzt das ganze als Dockerimage an, was man auf seiner eigenen Hardware laufen lassen kann. Somit gewinnt man als Unternehmen wieder die Hoheit über seine Daten.
    Aktuell sind Maschinelles Sehen, Gesichtserkennung und Textanalyse sowie Language Understanding (LUIS) in Docker verfügbar.
    Wie setzte man diese Docker Container richtig im Unternehmen ein. Diese und weitere Fragen wir Alexander Klein in seinem Vortrag beantworten.

  • BI english
    05.03. | 13:30 - 14:30
    Track 5
    Level 300
    Power BI Aggregations Gabi Münster & Tom Martens

    Microsoft released a major feature to enable the high-performance analysis of large amounts of data in a manageable way by implementing Aggregations in Power BI (Power BI Desktop Release October 2018). This feature is well known and used as an important performance optimization feature of Analysis Services Multidimensional. Compared to this the Aggregations available in Power BI offer a much more user-friendly and intuitive way of approaching this goal. But is this feature as powerful as the "mighty brother"? And is the handling still as easy under some closer inspection? During this session, we will compare Aggregations in different Analysis Services engines and will highlight similarities and differences. In addition, we will dive into architectural approaches for implementing Aggregations in Power BI. We will point out strengths and weaknesses of different services and components to achieve a holistic analytical solution.

  • BREAK
    05.03. | 14:30 - 14:45
      Coffee break // Partner Exhibition
  • DBA english
    05.03. | 14:45 - 15:45
    Track 1
    Level 200
    It's broken, now what?! (Practical problem solving) William Durkin

    We've all experienced weird situations in IT - things break without any real apparent reason. Sometimes, error messages can be helpful, but mostly they are cryptic and lead to no real explanations/solutions.
    In this session, I will show a tips and tricks to approach problem solving in a logical way. The focus will be on improving your overall understanding of identifying problems and selecting the correct solution. We will see that sometimes simple solutions are the best, but sometimes we have to be creative and employ methods that may not be so intuitive.
    You will leave the session with a better understanding on how to approach solving any technical issues you experience at work.

  • DEV-OPS German
    05.03. | 14:45 - 15:45
    Track 2
    Level 100
    Das neue "SQL Azure Data Management Operations Studio" Robert Panther

    Zugegeben, ein "SQL Azure Data Management Operations Studio" gibt es bisher noch nicht. Der Begriff ist eine Mixtur der verschiedenen Verwaltungstools für SQL Server, die mit SQL Server 2019 entweder neu oder in überarbeiteter Form erscheinen (aber allesamt auch für ältere SQL Server Versionen genutzt werden können). Allen voran das Azure Data Studio (dessen Preview-Versionen noch unter dem Namen SQL Operations Studio liefen). Aber auch das SQL Server Management Studio bietet in der neuen Hauptversion 18 ein paar interessante Neuigkeiten. Dann gibt es noch die SQL Server Data Tools, die in den letzten Jahren zwar keine großen Sprünge gemacht haben, aber zumindest kontinuierlich weiterentwickelt wurden.
    Dieser Vortrag zeigt auf, welche neuen Möglichkeiten die verschiedenen Tools bieten und für welche Anwendergruppe welches Tool am besten geeignet ist.

  • IM German
    05.03. | 14:45 - 15:45
    Track 3
    Level 200
    DevOps in der Datenbank-Anwendungsentwicklung Markus Schröder, powered by Quest

    In der Anwendungsentwicklung haben sich agile Entwicklungsmethoden wie DevOps, Continuous Integration, Continuous Delivery und Continuous Deployment mittlerweile weitgehend durchgesetzt. Dies hat zur Folge, dass entsprechende Mechanismen und Werkzeuge auch für die Datenbank benötigt werden. In vielen Unternehmen ist die Datenbank zu einem Flaschenhals in dem sonst agilen Entwicklungsprozess geworden. Datenbankspezialisten befinden sich unter stets wachsendem Druck, die Entwicklungszyklen zu verkürzen. In einer Datenbankumgebung, die sich ständig verändert und in der auch kurze Ausfälle sehr hohe Kosten nach sich ziehen können, ist wenig Raum für Fehler. Daher ist es umso wichtiger, agile Entwicklungsmethoden einzuführen, um einerseits schnellere Ergebnisse zu liefern und andererseits das Risiko zu minimieren. Dieser Vortrag befasst sich mit den Besonderheiten einer Datenbankumgebung und den daraus resultierenden Herausforderungen für die Einführung von agilen Methoden bei der Anwendung.

  • DEV-OPS german
    05.03. | 14:45 - 15:45
    Track 4
    Level tba
    DevOps für Machine Learning-Projekte Sascha Dittmann & Veronika Zellner

    DevOps ist aus der klassischen Softwareentwicklung nicht mehr wegzudenken. Auch in den meisten datenzentrischen Projekte spielt dies eine immer größer werdende Rolle. Doch wie nutze ich das volle Potenzial meiner DevOps Tools?
    In dieser Session gehen Veronika Zellner und Sascha Dittmann dieser Fragestellung nach und zeigen wie man mit Azure DevOps, GitHub Actions, Kubeflow und anderen CI/CD Tools, DevOps Pipelines für Advanced Analytics- und Machine Learning-Projekte aufbauen kann.
    Hierbei gehen sie auf Themen wie Source Code Verwaltung, Infrastructure as Code, Unit- und Integration-Tests, aber auch das automatische Deployment in Test- und Produktions-Umgebungen ein.

  • DBA english
    05.03. | 14:45 - 15:45
    Track 5
    Level 300
    Automating Power BI Management Jan Mulkens

    You've been working with Power BI for a while now and you've noticed that management of Power BI isn't that that straightforward. Maybe you're limited in permissions, maybe you just don't have time.
    I used to have a session on monitoring Power BI and everything's that possible using just the audit log. This session starts with taking a step back and giving you a high level overview of the tooling that's out there to manage Power BI end to end.
    Next we dive one level deeper with a demo of where and how these tools can fit the lifecycle management of your own organisation. From the first commit to version control to automated deployment to monitoring to decommissioning workspaces.
    You'll walk away having witnessed an entire lifecycle in one session. With the overview we started with, you'll be able to make the Power BI lifecycle easier in your own organisation.
    Warning: not everything can be automated (yet?)

  • BI & ANALYTICS english
    05.03. | 14:45 - 15:45
    Track 6
    Level 400
    PaaSport to Paradise: Lifting & Shifting with Azure SQL Database + SSIS in Azure Data Factory Sandy Winarko

    This session focuses on the all PaaS solution of Azure SQL DB/Managed Instance (MI) + SSIS in Azure Data Factory (ADF) to lift & shift, modernize, and extend ETL workflows. We will first show you how to provision Azure-SSIS Integration Runtime (IR) – dedicated ADF servers for running SSIS – with SSIS catalog (SSISDB) hosted by Azure SQL DB/MI, configure it to access data on premises using Windows authentication and Virtual Network injection/Self-Hosted IR as a proxy, and extend it with custom/Open Source/3rd party components. We will next show you how to use the familiar SSDT/SSMS tools to design/test/deploy/execute your SSIS packages in the cloud just like you do on premises. We will finally show you how to modernize your ETL workflows by invoking/scheduling SSIS package executions as first-class activities in ADF pipelines and combining/chaining them with other activities, allowing you to trigger your pipeline runs by events, automatically (de)provision SSIS IR just in time, etc.

  • BREAK
    05.03. | 15.45 - 16.00
      Coffee break // Partner Exhibition
  • DBA German
    05.03. | 16:00 - 17:00
    Track 1
    Level 300
    Chaosbewältigung - SQL Server Migration und Konsolidierung Bodo Michael Danitz

    Jede neue SQL Server Version lädt zur Migration ein. Und wenn man schon einmal dabei ist, kann man ja auch gleich seinen Server-Zoo konsolidieren, was obendrein Lizenzkosten spart.
    Das stellt die IT-Mannschaften nicht selten vor ungeahnte Herausforderungen: Da finden sich SQL Server in den Versionen 2000 bis 201x, Express bis Enterprise. Manche wissen nicht einmal, wieviele SQL Server es wo in ihrem Unternehmen überhaupt gibt. Schaut man genauer hin, dann variieren die Serverzeichensätze nicht minder, und wer die Abhängigkeiten der Server untereinander oder zu anderen Datenquellen untersucht, der ist geneigt, das Handtuch zu werfen. Doch hier hört das Chaos nicht auf, denn es gibt ja auch noch Anwendungen und deren Benutzer, die gerne - nach höchstens minimaler Ausfallzeit, versteht sich - wie gewohnt weiterarbeiten möchten bzw. sollen.
    Hatte der Chef „Mal eben konsolidieren“ gesagt?
    Dieser Vortrag zeigt auf, wie groß das Chaos tatsächlich werden kann und versucht gleichzeitig eine Anleitung zu dessen Bewältigung zu sein.

  • DEV-OPS german
    05.03. | 16:00 - 17:00
    Track 2
    Level 300
    Living on the Edge - SQL Server auf ARM Frank Geisler & Benjamin Kettner

    Haben Sie sich schon mal überlegt wie es wäre, wenn man den SQL Server auf kleinstem Raum, auf einem IoT Device oder ähnlichem ausführen könnte? Sehr nah an dem Ort, an dem die Daten erfasst werden? Mit Azure SQL Database Edge ist das nun möglich!
    Die bewährte, leistungsstarke und sichere Microsoft SQL-Engine läuft nun nicht nur auf der x64-Architektur, sondern auch auf ARM-Prozessoren mit reduziertem Platzbedarf und kann nun in interaktiven Geräten und Edge-Gateways zum Einsatz kommen, also dort, wo Daten entstehen. Durch die Kombination neuer Funktionen für Daten-Streaming und Zeitreihenalyse mit maschinellem Lernen in der Datenbank (ML) ist Azure SQL Database Edge für Analysen mit niedriger Latenz direkt auf der Edge optimiert.
    In diesem Vortrag werden Szenarien vorgestellt, die man über Azure SQL Database Edge realisieren kann.

  • AZURE englisch
    05.03. | 16:00 - 17:00
    Track 3
    Level 300
    How to get the most from Azure SQL Database Jose Manuel Jurado Diaz & Vitor Pombeiro

    In this session we will show how to get the most advantages out from Azure SQL Database.

    We will learn how to monitor the performance of our workload, how to improve it and how to secure it using the tools and features at our disposal on the Azure portal without having to install 3rd party tools.

    We will also see some ways to lower the costs or increase performance without having to also increase costs.

  • BIGDATA & ANALYTICS english
    05.03. | 16:00 - 17:00
    Track 4
    Level 200
    AI Demystified Artus Krohn-Grimberghe

    This session gives an explanation of what AI really is, why AI will impact every business, and tries to give a glimpse overview of where AI can already be applied today.

  • DEV-OPS english
    05.03. | 16:00 - 17:00
    Track 5
    Level 300
    Defeat the monolith, an introduction to Kafka and Azure Eventgrid André Kamman

    Wether you are creating a full blown micro services architecture or just want to use new services on top of your existing SQL Server. At some point you have to think about how to share data between the platforms. Apache Kafka seems to be the tool of choice for this these days.
    But how does it work? How do you get your data from SQL Server? Did you know that you could use Azure Eventgrid with Kafka?
    In this session we will take a practical example and build a new service on top of an existing SQL Server based application, modernizing the architecture step by step.

  • DEV-OPS english
    05.03. | 16:00 - 17:00
    Track 6
    Level 300
    Implementing Supertypes and Subtypes in SQL Server Matija Lah

    (c) 2018 Mi Lambda, Matija Lah, s.p.

    A common problem in database design is the implementation of entities that are different physically (for instance, they share some attributes but have additional, specific, attributes), but should logically participate in the same relationships as one and the same.
    For instance, the customer can either be a natural person (a person, for short), or a legal person (an organization or a company). The majority of the attributes of a natural person are, of course, different from the majority of the attributes of a legal person; however, from the perspective of how they participate in business operations, they need to be considered as equal.
    In this session you will learn how to use specific native SQL Server functionalities to solve this particular problem: sparse columns, XML, JSON, and/or even User-defined CLR types – in an OLTP database, as well as in a star (or snowflake) schema data warehouse.

  • Partner Raffle
    05.03. | 17.00
      Time for a little RAFFLE