Lesestoff / Linksammlung

Momentan habe ich echt viel zu tun, trotzdem gibt es immer mehr als genug neuen Lesestoff. Nachfolgend ein kleiner Auszug, muss zugeben, habe selber noch nicht alles gelesen. Aber dafür ist dieser Blogbeitrag ja da, sprich ich kann später nachschlagen…

Power Platform:

Codeunit API’s in Business Central

Power Apps Community Plan without Office 365

Using Power BI service without an Office 365 account

Currency Conversion in Power BI Reports

THE HIDDEN GEMS OF THE FUNCTION WEB.CONTENTS()

Moving X-Axis in Power BI

Analyzing PASS SQL Saturday data using Power BI

Paginated Reports Bonus Tutorial – Use the XMLA endpoint to create a live connected Excel table

https://www.fourmoo.com/2020/02/12/how-you-can-store-all-your-power-bi-audit-logs-easily-and-indefinitely-in-azure/

Read API Data with Power BI using Power Query

 

NAV Business Central:

Codeunit API’s in Business Central

Business Central Blog

Import Tenant Data

How to use the Excel Buffer in Business Central cloud

Another great BC Blog

And another great Blog….

Dynamics 365 Business Central Workflows Auto Posting Transactions

 

SQL:

SQL CROSS JOIN examples

Split Delimited String with Split Delimited with PARSENAME function

 

Azure:

Cloud ETL With Azure Data Factory & CDS

Custom Logging and Auditing of ADF Data Flows

Syncing on-premise databases to Microsoft Azure Cloud using Azure Data Factory

Azure Functions Live – Feb 2020

 

Office:

Typescript – The Excel VBA Killer?

SSRS Reporting

Diese Seite finde ich empfehlenswert, geht zwar vorrangig um SSRS aber sind auch Tipps zum Dynamics NAV enthalten:

https://reportsyouneed.com/category/ssrs/

Vor alllem die Aussage, die Aufbereitung der Daten mittels SQL, Views oder procedures möglichst in der Datenbank zu behalten, würde ich in meinen Szenarien unterschreiben. Im Optimalfall sollte das Reportingtool lediglich für die Visualisierung zuständig sein. Ich sehe hier den großen Vorteil, dass die aufbereiteten Daten unabhängig vom Reporting Frontend universell verwendbar sind. Und es gibt dann auch nur eine Wahrheit der Daten und nicht im schlimmsten Fall eine je Report.

Auch für Power BI ist der Ansatz durchaus zulässig, ich sehe das in meinen Projekten (mit Power BI Pro) momentan so:

Wo immer möglich und sinnvoll, die Daten bereits an der Quelle (in der Datenbank) entsprechend vor-/aufbereiten

Dann die einzelnen Views als Power BI dataflows in den Service bringen.

Zentrale Datasets nach Star Schema entwickeln und auch im Service bereit stellen. Hier kann dann natürlich auch auf die gewohnten Tools wie Power Query und DAX zurückgegriffen werden.

Diese Datasets dann als Quelle für das Power BI Reporting verwenden.

Sehr gut, mit diesen Scripts lassen sich DateDim und TimeDim Entities leicht erstellen.

Besonders gut gefällt mir der Ansatz, das durch einen Scheduled Refresh im Dataflow das CurrentDate automatisch aktualisiert wird.

„Setting up a daily refresh schedule for this DataFlow will keep the flag values current, too (i.e. [Current Day?] and [Completed Day])“

Date and Time Table M Scripts for Standard Tables in DataFlows for Power BI