Links – Qualität statt Quantität

Ich bin momentan eher zurückhaltend, was das Posten von Links angeht. Ich stelle mir immer öfter die Frage, ob der für mich durchaus interessante Artikel überhaupt relevant ist, um ihn in einem Blog festzuhalten. Dafür gibt es ja schließlich auch noch die guten alten Bookmarks im Browser. Daneben ist es auch so, dass die Fülle der interessanten Beiträge immer mehr zunimmt. Ich habe mir daher vorgenommen, neue Infos immer erst mal zur Kenntnis zu nehmen. Wenn dann der Beitrag auch nach 1-2 Wochen immer noch im meinem Kopf herumgeistert, dann ist er es wert, dass ich ihn in meinem persönlichen Blog festhalte. Hier einige Beispiele:

Using the XMLA endpoint without Premium

Ich finde diesen Beitrag einfach spitze. Einfach geschrieben aber trotzdem voller Expertenwissen. Da viele neue Features einfach auf Power BI Premium abzielen, ist es für mich an der Zeit, mich mit Embedded auseinanderzusetzten. Dann kann ich zumindest die ganzen tollen Premium Sachen ausprobieren und habe trotzdem überschaubare Kosten.

 

SQL Saturday Vienna 24.01.2020

Friday, Jan 24, 2020 Conference Schedule

Ja, das ist wirklich schon eine Zeitlang her. Nur diese Sessions haben mich persönlich einfach beeindruckt:

Building a modern data warehouse and BI solution in Microsoft cloud

Mein Eindruck: Sehr praxisnahe Session mit vielen persönlichen Empfehlungen des Vortragenden

Common Data Model – Our new buddy for Data Governance

Mein Kommentar: Die Jungs haben wirklich Spass an  der Sache. Sehr leicht vorgetragen, trotzdem vollgepackt mit Expertenwissen

Power BI: From Self-Service to Enterprise

Sehr ruhig und sachlich vorgetragen, fast schon zurückhaltend. Aber gerade das hat diese Session für mich auch besonders gemacht. Sehr empfehlenswert…

 

Dann noch zwei Beiträge vom Global Azure Virtual Austria 2020 Event:

Serverless Application Integration – Azure and Power Platform

Slides und Codesamples

Das Konzepet der Microservices hat mich beindruckt, vor allem im Bezug auf die Projekte, in die ich im ERP-Bereich persönlich involviert bin. Nicht immer ist alles aus einem Guss die beste Lösung.

Immer wieder beindruckend ist die Leichtigkeit mit der Apps und Services in Azure eingerichtet werden können.

 

PowerPlatform Dataflows –PowerQuery (and more) in the Cloud

Slides zur Session

Guter Vortrag mit einer Fülle an Informationen zu Dataflows in der Power Platform.

Die vielen unterschiedlichen Ausprägungen und vor allem der Abgleich der Daten innerhalb der einzelnen CDM folders machen mich aber immer noch etwas nachdenklich.

 

 

Needful things – Oder was man so brauchen kann

Microsoft Dynamis BC

Company Badge

Disable Export to Excel

Interfaces in AL

Create a Role Center Headline

Integrate Business Central On-Prem with Flow

Business Central integration with Common Data Service

Learning Dynamics 365 Business Central Development From Scratch

Smart Notifications Code Sample

build Proxy in memory

Using Power Platform Dataflows to extract and process data from Business Central

 

Azure

How To Convert a Power BI Dataset To a Power BI Dataflow

News, News, News

Also ganz ehrlich, was da heute alles an Neuigkeiten pupliziert wird, ist ja schon fast beängstigend.

Wow to many news. Very hard to keep track. Here we go:

Microsoft Ignite 2019 News pdf download

Announcing Azure Synapse Analytics

Microsoft Power Platform News

Azure Data Factory Wrangling Task (No in public preview)

SQL Server 2019 GA

 

Announcing Visual Studio Online Public Preview

 

 

 

Mein Platz im Data / BI Universum

Seit Jahren verfolge ich nun genau die Entwicklung der Power Platform.

Power BI verändert sich dabei derart rasch, dass ich in letzter Zeit mein Augenmerk vor allem auf konzeptionelle Neuerungen was den Umgang mit Daten angeht gelegt habe. Da ist für mich die Einführung von Power BI Dataflows mit Abstand die spannendste Neuerung. Wobei gibt es da nicht auch Data Flows in Azure? Eine Bank zu Power BI Data Flows ist diese Seite:

https://ssbipolar.com/?s=data+flows

Aber halt, was ist mit der Azure Datafactory vs. SSIS vs. Data Bricks – Einen Einstieg zu dieser Thematik bietet dieses Video:

https://myignite.techcommunity.microsoft.com/sessions/66770?source=TechCommunity

Flow und PowerApps mag ich deshalb, weil ich ursprünglich selbst mal reiner Entwickler war und es einfach Spaß macht, „Programme“ zu erstellen. Hier reizt es mich vor allem, eine sinnvolle Verbindung zwischen den Tools herzustellen.

Aber es gabt ja natürlich noch viel mehr. Ich will zumindest eine Ahnung vom traditionellen BI mit SSAS haben, daher will ich dieses Jahr noch die Prüfung Developing SQL Data Models ablegen. Damit hätte ich dann meinen MSCE in Data Management and Analytics.

Nur mittlerweile spricht ja jeder nur noch vom Modern Data Warehouse. Da hoffe ich, dass mir solche Veranstaltungen dabei helfen, mit auf dem Stand der Dinge zu halten

Intelligent Cloud Bootcamp: Data Warehousing mit Azure​

Auch dieses hervorragende pdf zeigt eindrucksvoll, wie vielfältig heute die Umgebungen geworden sind:

Modern Data Warehouse

Abschließend eine kurze Erklärung, warum ich das alles mache:

  • Erstens bin ich nach wie vor an Weiterbildung und dem Erlernen von neuen Fähigkeiten interessiert.
  • Weiters sehe ich das als willkommene Abwechslung zum meiner Haupttätigkeit im ERP-Bereich und traditionellem Reporting mit SSRS, Excel und Access.
  • Dabei hoffe ich, dass modernes BI in Zukunft ein weiterer Schwerpunkt meines beruflichen Schaffens werden kann.

Solving Real World Scenarios with the Microsoft Power Platform

Time to play with dataflows. I have the following situation. For transactions in foreign currencies I need accurate fx rates. Can a dataflow solve this requirement?

First thing I did was to subscribe for a free plan here:

 

Then in Power BI service I created my very first dataflow. Basically the flow consists of one simple api call (well described on the fixer page):

And with some basic steps in the Power Query editor I ended up with this:

Now I can link every transaction in foreign currency to my central fx rates table. This is great but there was one important thing missing. I couldn’t figure out a way to store the results like it is possible with the streaming dataset feature.

So I was searching for an alternative solution. Why not use CDS for application to store the data? And then point the Power BI dataflow to the CDS entity:

I created a new entity as I could not find an existing one in the standard cds entities:

 

Afterwards I created a custom connector to the fixer api:

 

Next thing I needed was a flow to pull the data in my newly created entity:

And last of all I created another dataflow in Power BI pointing to the CDS entity:

 

Now I have the result I was looking for. A central fx rates table with historical data.

I have to admit figuring out all of this was fun. And best of all I could solve a real business need.