62
ZVF350 1 - 62 FrageNr #Antw. 1 4 2 2 3 3 4 4 5 4 6 3

SAP BW Übungsfragen

Embed Size (px)

DESCRIPTION

Übungsfragen SAP BW

Citation preview

Page 1: SAP BW Übungsfragen

ZVF350 1 - 31

FrageNr#Antw. Frage1 4 Bitte bewerten Sie die Aussagen zur BI-Datenbereitstellung als falsch oder richtig.

02 2 Richtige oder falsche Antworten zum ETL-Prozess?

Das InfoPackage lädt Daten immer in die PSA

03 3 Welche Aussagen zum Datenfluss sind richtig?

Die InfoPackage wird nur für den Ladeprozess in die PSA benötigt.

Der DTP kann durch Prozessketten definiert werden.0

4 4 Welche Quellsysteme gibt es.SAP-SystemeBI-Systemerelationale o. mulitdimensionale QuellenFremdsysteme

05 4 Bewerten Sie folgende Aussagen zum Thema Quellsystem als richtig oder falsch

Quellsystemtyp ist z.B. Web Services

06 3

Die Datenextraktion und Bereitstellung der Daten aus Quellsystemen erfolgt über DataSources.Die Extrakstruktur enthält die Menge der Felder, die von einem Extraktor im Quellystem für den Datenladeprozess angeboten werden.Die Extraktion und Übertragung der Daten erfolgt in der Regel auf Anforderung des BI (Pull).Durch Replikation wird die DataSource mit ihren relevanten Eigenschaften im BI bekannt gemacht.

Die Transferstruktur enthält mindestens die Felder der Extraktstruktur und 3 zusätzliche technische FelderDas Customizing der Extraktoren für das Quellsystem ECC erfolgt durch direkten Aufruf der Transaktion SBIW im BI-SystemEin Datentransferprozess (DTP) kann Daten aus der PSA in den Cube laden. Mehrere DTPs können auf die gleich PSA zugreifen, dabei sind unterschiedliche Transformationen möglich

Zu jeder DataSource gehören Metadaten, die die zu extrahierenden Daten beschreiben und angeben, wie die Extraktion durchgeführt werden kann.

Das Transformationskonzept von SAP Netweaver 2004s benötigt Übertragungs- u. Fortschreibungsregel.

Der Datentransfer zwischen InfoProvidern innerhalb eines BI-Systems erfolgt durch einen Datentransferprozess.Der Quellsystemtyp wird im Bereich Quellsysteme der Data Warehousing Workbench festgelegt.

Der für Daten-Transfer-Szenarien zwischen getrennten BI-Systemen benötigte Quellsystemtyp wird von SAP standardmäßig angelegt. (durch einen Link des jeweiligen BI-Systems auf sich selbst )

Als Quellsysteme werden alle Systeme bezeichnet, die Daten für BI bereitstellen. Zwischen welchen Quellsystemen kann man unterscheiden?Flachdateien, bei denen Metadaten manuell in BI gepflegt werden und Daten über eine Dateischnittstelle in das BI- System übertragen werden.Multidimensionale Quellen, die mit Hilfe von S- API an die DataSource gekoppelt werden.

C1
Hubert Tausch: BW 306/ 350
Page 2: SAP BW Übungsfragen

ZVF350 2 - 31

FrageNr#Antw. Frage

BI- Systeme0

7 3 Transformationsprozess: welche Aussage treffen zu:

InfoSources sind obligatorisch.

08 2 Bewerten sie nachfolgende Aussagen zur Datenbereitstellung:

Der Datentransferprozess steuert die Verteilung der Daten innerhalb BI.Die Transformationsregel bearbeiten Sie über den ABAP-Editor.

09 2

Keine Verbuchung,kein ReportingKeine Verbuchung gültiger Sätze, Reporting möglichVerbuchung gültiger Sätze, Reporting möglichKeine Verbuchung gültiger Sätze, Reporting nicht möglich

010 3 Welche Aussage(n) zum Prozess der Datenbereitstellung im BI sind/ist richtig ?

Das Infopackage steuert den Transfer der DatenFremdsysteme können nicht als Quellsysteme genutzt werden

011 3 Welche Aussagen zur Datenbereitstellung in BI sind richtig?

Die Datenbereitstellung zählt zu den Data-Warehouse-Prozessen in BI.

012 1 Welche Aussagen treffen für die Fehlerbehandlung bei der Datenbereitstellung zu?

Fremdsysteme, bei denen der Daten- und Metadatentransfer über Staging BAPIs erfolgt.

Mit dem Transformationsprozess können Sie semantische Schlüssel für die Aggregation definieren.Gemäß Transformationskonzept von SAP NetWeaver 2004s benötigen wir in einem Großteil der Fälle nur noch eine einzige Transformationsregel.

Mit Hilfe der Transformation können sie zusätzliche Funktionen wie die Mengenumrechnung anwenden und haben die Möglcihkeit zum Anlegen einer Endroutine oder einer Expertenroutine.

Eine InfoSource ist eine nichtpersistente, aus InfoObjects bestehende Struktur zur Verknüpfung zweier Transformationen.

Delta-Verfahren für verschiedene Ziele können nicht durch den Datentransferprozess getrennt werden

Welche Einstellungsoptionen zum Datentransferprozess sind auf der Registerkarte "Verbuchung" möglich ?

Die Datasource umfasst eine Menge von Feldern,die die Daten für den Datentransfer an BI zur Verfügung stellt

Zu jeder Datasource gehören Metadaten , die die zu extrahierenden Daten beschreiben

Das BI-System kann Zielsystem aber auch Quellsystem im Rahmen des Datentransfers sein.Die von SAP vordefinierten DataSources für SAP-Quellsysteme dürfen nur für Schulungszwecke verwendet werden.Der Datentransfer zwischen InfoProvidern innerhalb eines BI-Systems erfolgt durch einen Datentransferprozess.

Der Fehlerstack ist eine Request-basierte Tabelle, in die die fehlerhaften Datensätze aus dem Infopackage geschrieben werden.Wenn ein Request in einem DSO gelöscht wird, werden auch die zugehörigen Datensätze im Fehlerstack gelöscht.

C1
Hubert Tausch: BW 306/ 350
Page 3: SAP BW Übungsfragen

ZVF350 3 - 31

FrageNr#Antw. Frage

013 3

Es handelt sich um das Merkmal-InfoObjekt "Quellsystem-ID" (0SOURSYSTEM)

Es handelt sich um ein Einheiten-InfoObject (z.B: 0UNIT, 0CURRENCY)Das InfoObject verfügt weder über Attribute, Texte noch HierarchienAlle Antworten sind falsch

014 1 Folgende Aussagen stimmen nicht:

015 4

AnwendungskomponentenExtraktionsmethode und ExtraktorDeltaverfahrenTransfermethode

016 4 Bitte bewerten Sie die Aussagen zur Transformation bei der Datenbereitstellung in BI:

Eine Transformation konvertiert die Felder einer Quelle in das Format des Ziels.

Eine Transformation besteht aus mindestens einer Transformationsregel.Mit Hilfe von Routinen können Sie komplexe Transformationsregeln definieren.

017 2 Richtige Aussagen zum ETL-Prozess sind:

In 2004s (7.0) genügt meistens eine TransformationsregelFortschreibungsregeln beziehen sich auf das Quellsystem

Übertragungsregeln werden bezüglich des Datenziels definiert0

18 3 Welche Aussagen zum BI Content sind richtig?

Mögliche Reaktion auf fehlerhafte Datensätze ist: "Keine Verbuchung, kein Reporting (Request rot)"Auf der Registerkarte "Verbuchung" kann ein Fehler-DTP angelegt werden, solange der Datentransferprozeß noch nicht aktiviert ist.

In folgenden Fällen ist es nicht möglich, ein Merkmal-InfoObject als InfoSource mit direkter Fortschreibung zu verwenden:

Im Kontextmenü des Quellsystems innerhalb der DWWB kann man über 'Customizing Extraktoren' in das Quellsystem abspringen. Voraussetzung: ein Dialoguser muss angelegt sein.Andernfalls muss man sich in das Quellsystem einloggen und in die SBIW gehen.

Die PSA hat dieselbe Struktur wie die Transferstruktur bis auf drei Felder für: Request-ID, -paket, Satz.Der Ladevorgang in ein Datenziel über die DB-Schnittstelle ist ein Austausch von Daten zwischen der Extraktstruktur im Quellsystem und der Transferstruktur im Ziel System.Eine InfoSource ist eine nicht persistente, aus InfoObjects bestehende Struktur zur Verknüpfung zweier Transformationen.

Zu den Metadaten einer DataSourcegehören aus der Sicht des jeweiligen Quellsystems z.B.:

Es gibt verschiedene Arten von Routinen in der Transformation: Startroutine, Routine für Kennzahlen oder Merkmale, Endroutine und Expertenroutine.

Bei 2 hintereinandergeschalteten Transformationen ist die Zwischenschaltung einer InfoSource obligatorisch

C1
Hubert Tausch: BW 306/ 350
Page 4: SAP BW Übungsfragen

ZVF350 4 - 31

FrageNr#Antw. Frage

Die D-Version wird nach der Übertragung gelöscht.

019 4 Welches sind vorkonfigurierte Objekte des BI Content?

RollenInfoSourcesÜbertragungsregelnDataSources

020 3 Sind folgende Aussagen zu InfoSource in 7.0 zutreffend ?

021 2 Erkennen Sie Unterscheidungsmerkmale der Transfermethoden

IDoc- Maximale Anzahl der Felder pro Datensatz = 255PSA- Maximale Datensatzlänge 1962 BytePSA - nutzt Daten IDocsIDoc- nutzt Daten IDocs

022 3

Selektionsebene auswählenÜbernahme der BI Content-InfosetBI Content-Objekte übernehmenBI Content-Objekte mit Gruppierungsverfahren auswählen

023 2 Bewerten Sie folgende Aussagen zum Datentransfer unter BI 3.x ....

Eine InfoSource 3.x ist eine Menge logisch zusammengehöriger InfoObjects.

024 2

Konsolidierung,Bereinigung und Integration von Daten

Nachdem der BI Content im BI-System installiert wurde, stehen die Objekte zunächst in der D(elivered)-Version zur Verfügung.Mit der Übernahme der BI Content-Objekte werden die Inhalte der D-Version kopiert und in eine A(ctive)-Version übertragen.

Wenn ein aktiviertes BI Content-Objekt verändert wird, wird eine neue, die M(odified)-Version generiert.

Eine Infosource ist eine aus InfoObjects bestehende Struktur zur Verknüpfung zweier Transformationen.Eine InfoSource beschreibt die Menge aller verfügbaren Daten zu einem Geschäftsvorfall oder einer Art von Geschäftsvorfällen.Eine InfoSource verwenden Sie immer dann, wenn Sie im Datenfluss zwei (oder mehrere) Transformationen hintereinander durchführen wollen, ohne dass die Daten zusätzlich abgelegt werden sollen.Die Daten einer InfoSource werden immer über eine Transformation in einen InfoProvider fortgeschrieben.

Der Übernehmeprozess von BI Content-Objekten lässt sich in drei Schritten beschreiben:

Man unterscheidet zwischen einer Infosource 3.x mit direkter und mit flexibler Fortschreibung.Während 3.x Infosources mit dir. Fortschr. für Bewegungsdaten gedacht sind, werden 3.x Infosources mit flex. Fortschr. für Hierarchien verwendet die unter BI 7.0 noch nicht fortgeschrieben werden können.Hierarchien können nicht mittels einer InfoSource 3.x mit direkter Fortschreibung fortgeschrieben werden.

Welche Funktionen und welche Möglichkeiten hat, bzw. bietet, die Infosource im Datentransferprozess?

C1
Hubert Tausch: BW 306/ 350
Page 5: SAP BW Übungsfragen

ZVF350 5 - 31

FrageNr#Antw. Frage

In 3.x ist die Infosource direkt mit der PSA verknüpft0

25 3 Welche Aussage zuTransfermethoden sind richtig?In der Version 3.x kann zwischen PSA und IDoc gewählt werdenIn der Version 7.0 ist PSA obligatorisch .Bei der Transfermethode PSA werden IDocs grundsätzlich nicht benötigtDie Transfermethode bestimmt , wie die Daten übertragen werden

026 1 Welche Aussage(n) ist/ sind richtig?

Zielobjekte können BI-Objekte InfoSource, InfoObject und InfoSet sein.

Eine Transformation wird zwischen einer Quelle und einem Ziel angelegt.0

27 3 Welche Aussagen zum Business Content sind richtig?

BI Content wird als Add-On zu BI ausgeliefert.

Der technische Name aller Demo-Content-Objekte beginnt mit 0D_0

28 3 Welche Aussagen treffen auf die Transformation nicht zu?Bei der Transformation werden die Zielfelder in das Quellformat umgewandelt.

Der Transformationsprozess konsolidiert, bereinigt und integriert Daten

029 2 Welche Aussagen zum Datenfluss sind richtig?

Eine Transformation besteht aus einer, mehreren oder keiner Transformationsregel

0

in BW 3.5 Transformation der Daten unter Verwendung von Übertragungs- und FortschreibungsregelnInfosources müssen, unabhängig von der Anzahl der Transformationen, verwendet werden

Bei der Transformation legen Sie die Zuordnung der Felder aus dem InfoObject zu DataSource fest.

Eine InfoSource ist lt. SAP eine persistente, aus InfoObjects bestehende Struktur zur Verknüpfung zweier Transformationen.

Der sofort einsatzbereite Business Content von SAP NetWeaver 2004s umfasst beispielsweise Portal Content und BI Content.

Die BI Content-Objekte werden in der Version A (ausgeliefert) von SAP bereitgestellt und erhalten die Version M (modifiziert), wenn sie verändert werden.

Eine Transformation wird zwischen dem Quellsystem (z.B. Flatfile) und dem Ziel angelegt.Das Mapping ist eine Transformationregel aus BI 3.5 und wird in Version 7.0 vollständig vom System übernommen.

Transformation legen die Zuordnung der Felder aus der DataSource zu InfoObjects aus BI fest

Eine Transformation wird zwischen einer Quelle und einem Ziel angelegt. Die Quellobjekte DataSource, InfoSource, DSO, InfoCube, InfoObject, InfoSet stehen zur VerfügungEine Transformation wird zwischen einer Quelle und einem Ziel angelegt. Die Zielobjekte InfoSource, DSO, InfoCube, InfoObject, InfoSet stehen zur Verfügung

C1
Hubert Tausch: BW 306/ 350
Page 6: SAP BW Übungsfragen

ZVF350 6 - 31

FrageNr#Antw. Frage30 3

Datenfluss danachÜbernehmen im HintergrundDatenfluss davorDatenfluss davor und danach

031 4

Die Drucktastenleiste der ModellierungDas Navigationsfenster im linken Bildbereich

Die geöffnete Anwendung im rechten Bildbereich0

32 4

VirtualProvider auf Datentransferprozess basierendVirtualProvider mit BAPIsVirtualProvider mit FunktionsbausteinStammdatentragendes MerkmalInfoObject als VirtualProvider

033 2 Richtige Aussagen zum SAP BI sind:

In BI 7.0 gibt es Virtual Provider auch für stammdatentragende MerkmaleBei Direktzugriff sollten Navigationsattribute vermieden werden

034 3

FunktionsbausteineInfoSet (SAP Query)Query-ViewsDB-Tabellen

035 4 Was gehört zum Umfang des SAP Service API

Konfiguration von QuellsystemverbindungenCustomizing der DataSourcesReplikation der DataSourcesTesttool für die Datenextraktion

036 4

Bei der Übernahme von BI Content-Objekten haben Sie die Möglichkeit, Quellsysteme zuzuordnen. Mit dieser Zuordnung legen Sie fest, in welchen Quellsystemen diese Objekte für die Übername gesammelt werden sollen. Wenn Sie kein Quellsystem auswählen, werden automatisch alle Quellsysteme zugeordnet. Welche der folgenden Optionen für das Übernehmen sind in Netweaver 2004s nicht auswählbar?

Der Funktionsbereich Modellierung besteht aus verschiedenen Bildbereichen. Neben Menü-, Titel- und Statusleiste enthält die Modellierung die folgenden vier Bildbereiche:

Die Sicht auf den ausgewählten Objektbaum im rechten bzw. bei geöffneter Anwendung mittleren Bildbereich

Für den Direktzugriff auf Daten in BI-Quellsystemen ohne Extraktion stehen folgende Typen von VirtualProvidern zur Verfügung.

Von einer PSA als interner Quelle können Daten per Mapping ins Datenziel InfoSet geschrieben werdenIn BI 3.5 werden bei Direktzugriff auf Daten des Quellsystems die Stammdaten im BI automatisch aktualisiert

Welche Extraktionsmethoden stehen bei Verwendung generischer DataSources zur Verfügung?

Der Dämon steuert und überwacht die Übertragungsprozesse für Real-Time Data Acquisition. In Abhängigkeit vom verwendeten Szenario führt der Dämon folgende Aufgaben aus:Wenn die Datenübertragung aus einem SAP-Quellsystem erfolgt, startet er mit einem InfoPackage die Datenübertragung ins PSA

C1
Hubert Tausch: BW 306/ 350
Page 7: SAP BW Übungsfragen

ZVF350 7 - 31

FrageNr#Antw. Frage

Er startet die Folgeprozessketten0

37 3

VirtualProvider auf Basis von DataStore- Objekten.VirtualProvider mit BAPIs.VirtualProvider mit Funktionsbausteinen.VirtualProvider auf Basis von Datentransferprozessen.

038 4 Welche Aussagen zum Daemon (RDA) sind richtig?

039 2 Welche Aussagen zur ServiceAPI sind richtig?

VirtualProvider können aus allen DataSources mit Daten beliefert werden.

040 1

die InfoSource wird ab BI 7.0 nicht mehr benötigt

041 2 Welche Aussagen zum Virtual Provider auf Basis von Transferprozessen sind richtig:

Stammdaten und Hierarchien werden direkt vom Quellsystem gelesenEine Schnittstellenprogrammierung im Quellsystem ist optional

Er schließt und öffnet Requests, wenn die festgelegten Schwellenwerte überschritten werden.Er startet mit einem Datentransferprozess die Weiterverbuchung der Daten in das DataStore-Objekt

Bei den Direktzugriffsszenarien werden verschiedene VirtualProvider eingesetzt! Welche können zum Einsatz gebracht werden?

In BI System werden die Daten mit einem zugeordneten Daemon eingeplant und in regelmäßigen Zeitabständen ausgeführt.Bei einigen Datentransferprozessen für Real-Time DAta Acquisition übernimmt der Daemon auch die weiterverbuchung der Daten in DataStore-Objekte aus der PSA.

Die Query zeigt den Zeitpunkt an, zu dem die Daten zuletzt durch einen Daemonlauf aktualisiert wurden.Es wird von den Queries der Zeitpunkt des letzten Daemonlaufs angezeigt, selbst wenn keine neuen Daten verbucht wurden.

Zur ServiceAPI gehören z.B. Replikation von DataSources, VirtualProvider-Technology und ein Test-Tool für die Datenextraktion.

Mit einer Delta-Queue können geringere Ausfallzeiten realisiert werden wenn die Initialisierungsläufe auf gespiegelten Systemen durchgeführt werden.

Generische DataSources erlauben nur die Extraktion von Daten, die dem BI-System mit den DataSources des Business Content oder mit anwenderspezifischen DataSources zur Verfügung gestellt werden.

Der Datentransferprozess beschreibt bzw. steuert die Verteilung der Daten innerhalb eines BI-Systems, prüfen sie nach folgende Aussagen auf Ihre Richtigkeit!

ab Netweaver 2004 s können Transformationen als Synonym für DTP innerhalb von BI bezeichnet werden!

das Info Package steuert den Datentransfer und ist Bestandteil des DTP innerhalb von BI fehlerhafte Datensätze innerhalb eines Datentransferprozesses führen immer zu einem Abbruch des Prozesses, eine Fortschreibung ist nicht möglich

Falls in den Transformationsregeln eine Konstante angegeben worden ist, werden die Daten nicht übertragen wenn diese Konstante nicht erfüllt ist

C1
Hubert Tausch: BW 306/ 350
Page 8: SAP BW Übungsfragen

ZVF350 8 - 31

FrageNr#Antw. Frage

042 3

VirtualProvider auf Basis von DTPVirtualProvider für Schreib-und LesezugriffVirtualProvider mit BAPIsVirtualProvider mit Funktionsbausteinen

043 2 Welche Aussage(n) zu Real-Time Data Acquisition (RDA) ist/sind richtig?

In BI werden für RDA spezielle InfoPackages angelegt.

044 2

SAP - CRM.csv - DateiUD-Connect ist eine Schnittstelle und kein DataSource - TypWeb-Service

045 4 Welche Aussagen zum Thema Real-Time Data Acquisition RDA sind richtig?

die Daten werden über ein InfoPackage für RDA in PSA übertragendie Daten werden über einen Datentransferprozess für RDA in ein DSO übertragen

der Prozess der Datenbewegung wird vom System-Dämon initiiert

046 3 Welche der Aussagen zu Direktzugriffen sind unkorrekt?

VirtualProvider mit BAPIs ermöglichen für Daten den Lese- UND Schreibzugriff.

047 1 Wie werden Daten zwischen InfoProvidern innerhalb eines BI-Systems ausgetauscht?

ein Austausch ist nicht möglich

Da keine Einschränkung der Datenmenge besteht, bewirkt das Lesen der Daten im Quellsystem, auch mit geeigneten Aggregaten, einen geringere Performance

Direktzugriff auf Daten des Quellsystems kann mit Hilfe von VirtualProvidern möglich gemacht werden. Welche Arten werden verwendet?

Es existieren drei grundlegende Szenarien für RDA: via Service-API, via Web Service und via Open Source.

Ein sogenannter Dämon (als Hintergrundprozess) informiert das Service-API im Zielsystem des Datentransfers, wenn die Daten erfolgreich verbucht sind.

Für RDA via Service API wird eine permanente RFC-Verbindung zwischen dem jeweiligen Quellsystem und BI benötigt.

Welche DataSource - Typen unterstützen den Direktzugriff mit Hilfe von virtuellen Providern?

Ein Dämon ist ein Hintergrundprozess, der in regelmäßigen Abständen die ihm zugeordneten InfoPackages und DTP verarbeitet

VirtualProvider mit Funktionsbausteinen ermöglichen für Daten den Lese- UND Schreibzugriff.VirtualProvider auf Basis von Datentransferprozessen ermöglichen für Daten den Lese- UND Schreibzugriff.

Man verwendet VirtualProvider mit einem benutzerdefinierten Funktionsbaustein, wenn Daten aus Nicht-BI-Datenquellen in BI angezeigt werden sollen, ohne die Datenbestände in die BI-Strukturen übernehmen zu müssen.

C1
Hubert Tausch: BW 306/ 350
Page 9: SAP BW Übungsfragen

ZVF350 9 - 31

FrageNr#Antw. Fragemittels der Transportstrukturmit einem Datentransferprozess (DTP)durch Replikation

048 1 Die Transaktion "LBWE" startet …

den Listgenerator für Business-Circular Competences das Logistik Extraktstrukturen Customizing Cockpitdie Lokale Einheitenumrechnung für Custom Cubesdie Logic Business Extraction Central Component

049 4 Welche Aussage zur Logistik-Datenextraktion ist richtig oder falsch?

Die Extraktstruktur und die DataSource werden im Customizing Cockpit gepflegt.

Die Delta-Queue besteht aus 3 Tabellen.Als Verbuchungsmethode steht u. A. die unserialisierte V3-Verbuchung zur Vefügung.

050 3 Richtige Aussagen zur Logistik-Datenextraktion sind:

Die Delta-Queue besteht aus 3 Tabellen, ähnlich wie ein Standard-DSO-Objekt

051 3

Serialisierte V1-VerbuchungUnserialisiert V3-VerbuchungDirect deltaQueued delta

052 4 Welche VerbuchungsModi gibt es?

Serialisierte V3-VerbuchungDirect deltaQueued deltaUnserialisiert V3-Verbuchung

053 3

Unserialierte V3-Verbuchung stellt nicht die Serialisierung der Belegdaten sicher.

Unserialierte V3-Verbuchung ist ein Verbuchungsmodus aus der Logistik-Extraktion

Bei der LO-Extraktion von Bewegungsdaten ist zunächst ein so genannter Neuaufbau der Extraktion notwendig.

Neuaufbautabellen werden für das Delta-Verfahren nie verwendet, da sie zu viel Performance kosten und deshalb durch die V3-Verbuchung ersetztEin kundeneigenes R/3 mit Vertriebskomponente enthält bereits ein LIS-System für AuswertungenDie modernere Möglichkeit der Auswertung (LO) erfolgt über Objekte aus dem BI-Content. Diese enthalten im technischen Namen die Zeichenfolge LIS.

Verbuchungs-Modus im Logistik Extraktstrukturen Customizing Cockpit: Auf welche Art/en können die anfallenden Daten bei Delta-Buchungen verbucht werden?

Sind folgende Aussagen zur Datenbereitstellung über das Service -API richtig oder ....?

Unserialierte V3-Verbuchung unterscheidet sich nicht von der "normalen" V3-Verbuchung

C1
Hubert Tausch: BW 306/ 350
Page 10: SAP BW Übungsfragen

ZVF350 10 - 31

FrageNr#Antw. Frage

054 3 Mixed Mode, Bewerten Sie folgende Aussagen!

InfoSet ersetzt ab Release 4.6C die bis dahin gültige Bezeichnung "Sachgebiet"

Nicht alle Extraktstrukturen des Logistik Customizing Cockpit können gepflegt werden!

Ein Delta Queue besteht aus 2 Objekten und damit mindestens aus 2 Tabellen

055 4 Was muss bei der Definition eines DB-Views für die Extraktion beachtet werden.

Mandant muss erstes Datenfeld sein

056 2 Welche Aussagen zum Logistic Extraktion Customizing Cockpit sind richtig?

057 3

Die Möglichkeit des Direktzugriffs besteht für Bewegungsdaten und Stammdaten

058 4 Welche Aussagen zur unserialisierten V3 sind richtig bzw. falsch?

Bei der "Unserialierte V3-Verbuchung" verbleiben die Daten in den Verbuchungstabellen bis zum Auslesen und der Verarbeitung durch den Verbuchungssammellauf.

Die Delta - Initialisierung des Bewegungsdatenbestandes kann auch auf Organisationselementen, wie Verkaufsorganisation oder Buchungskreis aufbauen.

Feld Sprache muss als Schlüssel definiert sein, mit der Domäne SPRAS, falls Texte sprachabhängig hintergelegt sind.Wenn an das Schlüsselfeld Merkmale geklammert wurden, müssen diese als Schlüssel aufgelistet werden.Bei Zeitabhängigkeit von Inhalten des Views müssen die Felder DATETO und DATEFROM angegeben werden.

Es gibt folgende Funktionen: Pflege von Extraktstrukturen, Pflege von DataSources, Pflege von InfoCubes, Aktivieren der Fortschreibung.Zu jeder im OLTP-System zur Verfügung stehenden Extraktstruktur ist eine DataSource vorhanden.Wenn eine DataSource zum zweiten Mal repliziert werden muss, sollte nur die betreffende DataSource repliziert werden.Ein Full-Upload wird nicht wie eine Delta-Initialisierung über die Neuaufbautabellen durchgeführt.

Datentransferprozesse werden nach verschiedenen Arten unterschieden: Bewerten sie nachfolgende Aussagen:Für Virtual Provider besteht die Option der RealTimeDataAquisation als DTP zur Auswahl!Bei der RealTimeData Aqusiation werden die Daten in ein DataStore Objekt übertragen werden, werden die Daten persistent im BI abgelegtVoraussetzung für die Übertragung von Daten in die PSA bei der RealTimeData Aquisation sind speziell dafür angelegte InfoPackages!

Die Extraktionsdaten werden mit Hilfe eines V3-Verbuchungsbausteins in die Verbuchungstabellen geschrieben.Die Daten in den Verbuchungstabellen können über einen Verbuchunglauf hinaus ausgelesen und verarbeitet werden

C1
Hubert Tausch: BW 306/ 350
Page 11: SAP BW Übungsfragen

ZVF350 11 - 31

FrageNr#Antw. Frage

Die unserialisierte V3 Verbuchung stellt nicht die Serialisierung der Belegdaten sicher

059 2 Welche Aussagen zur Datenextraktion aus einem R/3-System sind richtig?

Die Neuaufbautabelle wird nur beim Full-Upload verwendet .Die Delta-Queue besteht aus bis zu drei Tabellen.

060 2 Bei dem Verbuchungsmodus Delta queued...

entfällt die zusätzliche Überwachung der Verbuchungsdaten oder Extraktionsqueue.

ist die Extraktion unabhängig von der V2-Verbuchung.0

61 1 Richtig oder Falsch?

062 3 Benennen Sie die Vorteile und Egenschaften des "Delta direkt" Verfahrens

Die Extraktion ist abhängig von der V2-Verbuchung.

063 4 Auf welche Arten können anfallende Daten bei Delta-Buchungen verbucht werden?

serialisierte V3-VerbuchungDirect Deltaunserialisierte V3-VerbuchungQueued Delta

0

Die Daten werden im Verbuchungssammellauf ohne Berücksichtigung der Reihenfolge aus den verbuchungstabellen gelesen

Der Datenfluß erfolgt entweder über die Delta-Queue oder über die Neuaufbautabelle .

Bei der Pflege der Extraktstruktur können u.a Einstellungen zum Verbuchungsmodus vorgenommen werden

werden die Extraktionsdaten mit jeder Belegbuchung direkt in die Delta-Queue übertragen.werden die Extraktionsdaten der betroffenen Anwendung nicht in den Verbuchungsdaten, sondern in einer Extraktionsqueue gesammelt.

Mittels Delta Queue ermittelt das Service API den Fortschreibungsmodus der Neuaufbautabelle.SAP empfiehlt die gesamten DataSources eines Quellsystems zu replizieren, um Inkonsistenzen zu vermeiden.Der Begriff 'Kommunikationsstruktur' wird von SAP einzig im Zusammenhang mit InfoSourcen verwendet.Einzelne DataSources können über den entsprechenden Eintrag im Kontextmenü 'Metadaten replizieren' der betreffenden DataSource repliziert werden.

Durch das Schreiben in die " Delta-Queue" innerhalb des V1-Verbuchungsprozesses ist die belegweise Serialisierung über das Enqueue-Konzept für Anwendungen sichergestellt.Für Kunden mit geringem Belegaufkommenist das Verfahren dann zu empfehlen, wenn im Initialisierungsprozess eine Ausfallzeit während Neuaufbau- und Delta-Initialisierungs-Request Möglich ist. (z.B. am Wochenende)

Eine zusätzliche Überwachung der Verbuchungsdaten oder der ExtraktionsQueue entfällt.

C1
Hubert Tausch: BW 306/ 350
Page 12: SAP BW Übungsfragen

ZVF350 12 - 31

FrageNr#Antw. Frage64 4

Der BI Content stellt keine DataSOurce für Ihre Anwendung zur Verfügung

Sie füllen eigene Tabellen durch eigene Programme im SAP System0

65 2

Es gibt vier Verbuchungsmethoden. Eine davon ist "Delta direkt".Die Extraktstruktur wird mit den zugeordneten Kommunikationsstrukturen gefüllt.

Das Replikat der Extraktstruktur wird durch Aktivierung zur Transferstruktur.

066 4 Bitte bewerten Sie die folgenden Aussagen zum Delta-Management.

Die Tabelle RODELTAM beschreibt die Eigenschaften des Deltaverfahrens.

067 2 Über das Deltaverfahren treffen folgende Aussagen zu:

Die Early-Delta-Initialisierung vermeidet eine verbuchungsfreie Zeit

068 2 Bei folgende Delta-Typen wird die Delta-Queue nie verwendet:

A: Die DataSource ermittelt das Delta mit ALE-Änderungsprotokoll. D: Delta-Update per Push direkt zur DeltaQueue.E: Die DataSource ermittelt das Delta auf Anforderung durch den Extraktor.

F: Die Delta-Datensätze werden per Flat File geladen.0

69 4 Sind folgende Aussagen zum Deltatyp richtig?Deltatyp "E" = Der Extraktor liefert das Delta der DataSourceDeltatyp "D" = Das Delta wird durch die Anwendung bereitgestelltDeltatyp "E" = "Pulled Delta" ModusDeltatyp "D" = "Pushed Delta" Mode

070 3

Wann sollten die Werkzeuge für die generische Datenextraktion zum Anlegen einer DataSource eingesetzt werden?

Für den BI Content sind zusätzliche Erweiterungen erforderlich, für die wiederum Daten benötigt werden, die nicht von BI bereitgestellt werdenDie Anwendung stellt keine eigene generische Datenextraktion (Methode) zur Verfügung

Welche Aussagen sind für die Datenextraktion als Teil des ETL-Prozesses richtig und relevant?Aus der Kommunikationsstruktur können die Daten in einen InfoCube verbucht werden.

Der Satztyp (Record Mode) beschreibt, welche Art von Änderung ein Datensatz enthält.

Der Delta-Typ beschreibt die Art und Weise der Delta-Bereitstellung innerhalb eines Deltaverfahrens.Bei einem Repeat Delta-Update werden die falsch oder unvollständig geladenen Daten der fehlerhaften Delta-Anforderung sowie die seither angefallenen Daten extrahiert.

Zur Initialisierung werden wie beim full upload grundsätzlich Neuaufbautabellen angelegt

In der verbuchungsfreien Zeit können Buchungen des Typs V1 nicht durchgeführt werdenIn der verbuchungsfreien Zeit werden Buchungen des Typs V1 automatisch in die V3-Queue gestellt

Folgende Abhängigkeiten sind bei der Nutzung von deltafähigen DataSources in der Modellierung eines Datenflusses zu beachten.

C1
Hubert Tausch: BW 306/ 350
Page 13: SAP BW Übungsfragen

ZVF350 13 - 31

FrageNr#Antw. Frage

Reverse- Images können von allen Zielen verarbeitet werden.

071 3 Welche Aussagen sind Richtig?

Vor der Initialisierung können dynamische Daten per Full-Update übertragen werden.

072 3 Welche Aussagen zum Delta-Management sind richtig?

Ein Delta-Update kann adhoc, also ohne Vorarbeiten gestartet werden.

073 1

Der Extraktor liefert das Delta der DataSource "Pushed Delta"Das Delta kann durch die Anwendung bereitgestellt werden "Pulled Delta"

074 3 Welche Aussage zu Delta Verfahren für SAP Quellsysteme ist richtig?

Ein Before Image liefert den Status vor der Änderung mit einem Minuszeichen

Der Extraktor liefert additive Deltas die requestweise serialisiert werden

Deltas mit After Image lassen keine direkte Fortschreibung in einen Infocube zu

075 3 Welche Aussagen zum Deltamanegement sind richtig?

Delete- Images können nur von einem DataStore- Objekt verarbeitet werden. InfoCubes können Löschungen verarbeiten.

Wenn die DataSource sowohl das Before-Image als auch das After- Image sendet, kann diese Kombination in einem beliebigen InfoCube oder ein beliebiges DataStore- Objekt geladen werden.Handelt es sich bei den Daten, die das BI System füllen um ein additives Image, können die Daten in einen InfoCube oder DataStore- Objekt geschrieben werden.

Die Ermittlung der Eigenschaften des Delta-Verfahrens findet in der Tabelle RODELTAM statt.Die Ermittlung des Delta Verfahrens zur Data Source findet in der Tabelle RSOLTPSOURCE oder ROOSOURCE oder RSDS statt.Die neuen und geänderten werden von der Delta-Queue an das BI-System übertragen.

Eine Delta-Queue zur DataSource zieht die neuen bzw. geänderten Daten in den gleichen Ablagebereich hinein.Durch das vorherige Übertragen von historischen Daten per Full-Update kann das Datenvolumen verringert werden.Wenn ein Datenladevorgang scheitert und der BI-Monitor eine rote Ampel zeigt, kann die vorangegangene Delta-Übertragung wiederholt werden

Das Deltaverfahren ist eine Eigenschaft der DataSource, der Deltatyp wiederum eine Eigenschaft des Deltaverfahrens, bewerten sie folgende Aussagen bezogen auf SAP Quellsysteme!

Die zur Data Source gehörende Delta-Queue wird mit Erstellung der DataSource im Quellsystem erzeugtZwingende Voraussetzung innerhalb des Deltaverfahrens für die Buchung neuer bzw. geänderter Datensätze in die Delta Queue ist die Initialisierung des Deltaverfahrens

Die Bildung von Deltas mit Before Image erlaubt es die Daten direkt in die Delta Queue zu schreiben und packetweise zu serialisieren

Deltamanagement bezeichnet die Fähigkeit , nur neue und geänderte Datensätze einer separaten Datenanforderung in das BI-System zu extrahieren

C1
Hubert Tausch: BW 306/ 350
Page 14: SAP BW Übungsfragen

ZVF350 14 - 31

FrageNr#Antw. Frage

Die Delta-Queu ist eine Funktion des BAPI

076 2 Deltatypen

D: Generisches Delta-Verfahren des Service API's.E: Die DataSource ermittelt das Delta mit ALE Fortschreibungszeigern.F: Die Delta-Datensätze werden über Service API geladen.' ': Der Delta Typ ist nicht definiert.

077 2 Welche Aussagen zum Delta Management sind richtig?

Die Delta-Queue wird durch die Service-ALE (S-ALE) aufgebaut und verwaltet.

078 2

Reverse-Image -> InfoCubeDelete-Image -> InfoCubeAdditives Image -> InfoSetBefore-Image -> DSO

079 2 Die Zentralen Aufgaben der Delta-Queue sind:

080 1

Bei der Delta-Queu handelt es sich um eine Datenablage für neue und geänderte Datensätze zu einer Datasource

Die Tabelle RODELTAM definiert die Eigenschaften des Deltaverfahrens zu einer Datasource

Die Delta-Queue zu einer Data Source kann mittels Transaktion RSA7 angezeigt werden.Zulässige Deltaverfahren sind mit ihren Eigenschaften in der Tabelle ROOSOURCE definiert.Es wird pro BI-Zielsystem eine separate Delta-Queue zu einer Data Source eines SAP-Quellsystems gehalten.

Welche Recordmodes sind bei der Fortschreibung im Delta-Verfahren für den entsprechenden InfoProvider möglich?

Ablagespeicher für (seit der letzten Delta-Anforderung angefallene) neue und veränderte Daten im Quellsystem, die bei der nächsten Delta-Anforderung an das BI-System übertragen werdenDie Delta-Queue enthält nur die aktuellen Daten, die bei der nächsten Delta-Anforderung an das BI-System übertragen werden sollenDie Delta-Queue enthält die aktuellen / veränderten Daten sowie die Daten aus vorangegangenen Delta-Anforderunen. Dieses ist notwendig im Fall eines ÜbertragungsfehlersEs wird pro BI-Zielsystem mindestens eine Delta-Queue zu einer DataSource eines SAP-Quellsystems (Mandant eines SAP-Quellsystems)

In Hinweis 380078 (FAQ's zu BW Delta) beantwortet SAP folgende Frage wie? "Obwohl ein Delta-Request erst nach Beendigung des Sammellaufs (V3-Verbuchung) gestartet wurde, enthält er nicht alle Belege. Erst ein weiterer Delta-Request lädt die noch fehlenden Belege in das BW. Wodurch wird dieses "Splitting" verursacht?"

Durch den Sammellauf werden die noch offenen V1-Belege nur zur Verarbeitung an den Taskhandler übergeben und von diesem in einem oder mehreren parallelen Verbuchungsprozessen asynchron verarbeitet. Planen Sie deshalb zwischen dem Ende des Sammellaufs im Quellsystem und dem Start des Delta-Requests im BW ein genügend großes zeitliches "Sicherheitsfenster" ein.

C1
Hubert Tausch: BW 306/ 350
Page 15: SAP BW Übungsfragen

ZVF350 15 - 31

FrageNr#Antw. Frage

081 1

082 3

eine Extraktstruktur,Zeitmerkmale,eine Extraktionsart undeine Extraktionsmethode.

083 4 Bitte bewerten Sie die nachfolgenden Aussagen zur Übertragung von Flatfiles.

Durch den Sammellauf werden die noch offenen V2-Belege nur zur Verarbeitung an den Taskhandler übergeben und von diesem in einem oder mehreren parallelen Verbuchungsprozessen asynchron verarbeitet. Planen Sie deshalb zwischen dem Ende des Sammellaufs im BW und dem Start des Delta-Requests ein genügend großes zeitliches "Sicherheitsfenster" ein.

Durch den Sammellauf werden die bereits verbuchten V2-Belege nochmals zur Verarbeitung an den Taskhandler übergeben und von diesem in einem oder mehreren parallelen Verbuchungsprozessen asynchron verarbeitet. Planen Sie deshalb zwischen dem Ende des Sammellaufs im Quellsystem und dem Start des Delta-Requests im BW ein genügend großes zeitliches "Sicherheitsfenster" ein.

Durch den Sammellauf werden die noch offenen V2-Belege nur zur Verarbeitung an den Taskhandler übergeben und von diesem in einem oder mehreren parallelen Verbuchungsprozessen asynchron verarbeitet. Planen Sie deshalb zwischen dem Ende des Sammellaufs im Quellsystem und dem Start des Delta-Requests im BW ein genügend großes zeitliches "Sicherheitsfenster" ein.

In Hinweis 380078 beantwortet die SAP die Frage "Was ist eine LUW in der Delta-Queue?" mit "Eine LUW aus Sicht der Delta-Queue kann ein einzelner Beleg sein, eine Zusammenfassung von Belegen aus einem Sammellauf oder ein ganzes Datenpaket von einem Anwendungsextraktor." Welche Aussagen zu LUW's stimmen dagegen nicht?

Datensätze werden in vielen Fällen in Blöcken (= LUW) in die Delta-Queue geschrieben (technisch ein sogenannter COMMIT).In der RSA7: die Zahl neben der Delta-Queue zu einer DataSource gibt die Anzahl an Schreibvorgängen/Blöcken in der Delta-Queue wieder und nicht die Anzahl der dort enthaltenen Datensätze!Im Customizing (Transaktion SBIW des Quellsystems) können Sie festlegen, wie die Datensätze in Datenpakete innerhalb eines BI-(Delta-)Requests in Datenpakete verteilt werden. Es ist ebenfalls in der SBIW einstellbar, wieviele LUW's einem Datenpaket zugeordnet werden.

Im Customizing (Transaktion SBIW des Quellsystems) können Sie festlegen, wie die Datensätze in Datenpakete innerhalb eines BI-(Delta-)Requests in Datenpakete verteilt werden. Dies hat nichts mit den LUWs zu tun.

Eine DataSource ist ein Objekt zur Datenbeschaffung. Die DataSource ist in einem OLTP-System lokalisiert. Sie besitzt:

Da beim Hochladen von Flatfiles keine Replikation der Metadaten für eine DataSource stattfindet, müssen Sie die Reihenfolge der Felder in der DataSource nachvollziehen.

Flatfiles können erst geladen werden, nachdem ein Quellsystem vom Typ "Datei" für das BI-System angelegt wurde.

C1
Hubert Tausch: BW 306/ 350
Page 16: SAP BW Übungsfragen

ZVF350 16 - 31

FrageNr#Antw. Frage

084 2 Richtige Aussagen über Flatfiles als DataSource sind:

Das Pseudo-Delta ähnelt dem Snapshot-Verfahren

085 3 Delta-Initialisierungen - Welche Aussagen sind richtig?

086 2 Flatfile-DataSource-Ladefunktionen

087 2 Welche Aussagen zur Datenübertragung aus Flatfiles sind richtig?

Auf der Registerkarte Extraktion befindet sich die Drucktaste Prozess anlegen.

088 3

Auf der Registerkarte "Vorschlag" in der DataSource besteht die Möglichkeit basierend auf den Beispieldaten einen Vorschlag für die Feldliste anzulegen.

Felder, die in einer CSV-Datei nicht gefüllt sind, werden im Fall von Zeichenfeldern mit einem Leerzeichen gefüllt und im Fall von numerischen Feldern mit dem Wert Null (0).

Für CSV-Dateien müssen Trennzeichen, Escape-Character und Ende-Flag definiert werdenWenn Kopfzeilen ignoriert werden, müssen die Feldnamen alle von Hand eingegeben werdenEs kann eine Routine zur dynamisch-aktuellen Bestimmung des Dateinames zur Verfügung gestellt werden

Voraussetzung für das Anfordern von Deltas ist die Initialisierung des Deltaverfahrens.

Mit der Early-Delta-Initialisierung können bereits während der Initialisierungsanforderung im Quellsystem Daten in die Delta-Queue geschrieben werden.Zur Fehlervermeidung sollte eine Initialisierungssimulation vor der Early-Delta-Initialisierung durchgeführt werden.Eine Simulation der Delta-Initialisierung ist für DataSources aus SAP Quellsystemen nur möglich, wenn die DataSource dies unterstützt.

Beim Delta-Verfahren FIL0 Delta Data auf der Registerkarte Extraktion, erwartet das BI-System einen Reverse-Image mit dem neuen Status eines Satzes.

Wenn ein Altsystem nur den aktuellen neuen Status einer Änderung kennt, muss die Überschreibungsfunktion des DataStore-Objekt verwendet werden.

Beim Delta-Verfahren FIL1 Delta Data erwartet das BI-System entweder einen Satz mit dem Unterschied oder zwei Sätze: einen mit dem After-Image und einen mit dem Before-Image.Wenn die DataSource als additiv definiert ist, muss entweder ein additives Image oder es müssen beide Images(Reverse und After) verwendet werden.

Felder einer CSV-Datei die nicht mit Werten gefüllt sind werden mit dem Wert NULL (nicht definiert!) eingelesen.Sie können Flatfiles erst laden, nachdem Sie ein Dateisystem als Quellsystem des BI-Systems angelegt haben.

Beim Delta-Verfahren FIL0 Delta Data (After-Images) auf der Registerkarte Extraktion, erwartet das BI-System einen After-Image-Satz mit dem neuen Status eines Satzes.

DB Connect unterstützende Datenbankmanagementsysteme (unter Beachtung der Hinweise)

C1
Hubert Tausch: BW 306/ 350
Page 17: SAP BW Übungsfragen

ZVF350 17 - 31

FrageNr#Antw. FrageSAP DBMicrosoft SQL ServerCMSIBM DB2 UDB

089 3

Flatfiles bieten ebenfalls die Möglichkeit des Datenimports über ein Deltaverfahren

090 2 Was gilt für die Übertragung von Flatfiles?

091 3 Welche Aussagen zur Übertragung von Flatfiles sind richtig?

BI unterstützt die Übertragung von Dateien im ASCII und CSV-Format

MS-Office Dateien können direkt geladen werden

092 3 Pseudo-Delta. Welche Aussagen treffen zu?

Das Pseudo-Delta ähnelt dem Snapshot-Verfahren. Ein Pseudo ist eigentlich kein Delta-Verfahren, daher die Bezeichnung "Pseudo".

093 2 Welche Aussagen zur Datenextraktion aus Flatfiles sind richtig?

Das Flatfile darf maximal eine Kopfzeile enthalten.Das Flatfile muss lokal auf der Workstation abgelegt sein.Zur Bestimmung des Dateinamens kann eine Routine angelegt und genutzt werden.

BI unterstützt die Übertragung von Daten aus Dateien im ASCII- oder CSV-Format.

Bewerten sie nachfolgende Aussagen zum Datenladeprozess aus sogenannten flachen Datein bzw. dem Datenimport von CSV-Datein!Vorraussetzung für das Laden von Flatfiles ist das Anlegen eines Quellsystems vom Typ Datei im BI-SystemÜber Dateien können Text, Stammdatenattribute, Bewegungsdaten nicht aber Hierarchien ins BI-System geladen werdenFelder die in einer CSV-Datei nicht gefüllt werden bei Zeichenfeldern mit einem Leerzeichen gefüllt

Nicht gefüllte Felder in einer CSV Datei werden in Abhängigkeit vom Dateityp CHAR mit Leerzeichen und im Fall von Dateityp NUM mit Null gefüllt

Normalerweise am Anfang der CSV Datei befindliche Metadaten können in der Sicht "Allgemeines" der Datasource als zu ignorieren markiert werdenDie Dateiformate CSV oder ASCII zeigen beim Laden großer Mengen an Bewegungsdaten,hinsichtlich der dabei erreichbaren Performance, keine UnterschiedeFalls der Gebrauch von Trennzeichen in einer CSV Datei inkonsistent ist, befinden sich die Felder der betreffenden Datei nicht mehr in der richtigen Reihenfolge

Flatfiles können erst geladen werden , wenn ein Dateisystem aös Quellsystem angelegt ist

Es ist möglich , eine Routine anzulegen , um automatisch den Namen der Quelldatei zu verändern

Man kann mit einem Pseudo-Delta arbeiten, wenn für eine DataSource mit Full-Upload der normale Delta-Ladevorgang nicht verfügbar ist.Die Prozesse eines Pseudo-Deltas sind zeit- und somit auch kostenintensiv. Die Fehleranfälligkeit ist relativ gering.

C1
Hubert Tausch: BW 306/ 350
Page 18: SAP BW Übungsfragen

ZVF350 18 - 31

FrageNr#Antw. Frage0

94 1 Welche Aussagen sind nicht falsch?

4 095

Laden der Daten mit "Pseudo-Delta", was eigentlich kein Delta-Verfahren ist

Als Schritt 1: Löschen des Requests bzw. selektiv die Daten für den aktuellen Monat

Als Schritt 2: Laden im InfoCube den gleichen aktuellen Monat erneut

096 4 Welche Aussagen sind richtig?

097 2 Welche Aussagen zum Sicherheitsintervall des generischen Delta sind korrekt:

ein Sicherheitsintervall muss eine Ober- und Untergrenze haben.

098 4 Grundlage für die Architektur von UDI bilden folgende BI Java Connectoren:

BI JDBC ConnectorBI ODBO ConnectorBI SAP Query Connector

Wenn die DataSource als additiv gekennzeichnet ist, müssen die neuen Datensätze mit einem additive Image oder der Before/After-Kombination" im Überschreibenmodus angehangen werden.Wenn ein Altsystem nur den aktuellen (neuen) Status einer Änderung kennt, muss die Überschreibefunktion des InfoCubes verwendet werden.Selektionsfelder werden als Sekundärindex in der PSA generiert. Dies ist für die Gewähleistung einer guten Performance für die Datenselektion über Datentransferprozesse (DTP) wichtig, insbesondere bei semantischen Gruppen.

Zur automatischen Löschung überlappender Requests in InfoCubes kann in den Prozessketten der Prozesstyp "Überlappende Requests aus InfoCube löschen" eingestellt werden.

Sie wissen nicht genau, welche Sätze sich geändert haben, aber Sie wissen, dass es nur Sätze aus dem aktuellen Monat sein können. Wie können Sie vermeiden den ganzen InfoCube neu zu laden?

Ziel bei Pseudo-Delta ist , den gesamten InfoCube nicht ständig löschen und erneut laden zu müssen, sondern nur die Daten, die sich geändert haben könnten

Ein Delta-Verfahren sagt grundsätzlich nichts darüber aus, WIE das Delta in der Anwendung ermittelt wird.Ist in der Extraktstruktur einer DataSource ein Feld vorhanden, das Werte enthält, die mit der Zeit monoton ansteigen, können Sie für diese DataSource Delta-Fähigkeit definierenFür die Untergrenze sollte ein Sicherheitsintervall nur dann angegeben werden, wenn das Delta-Verfahren Neuzustand für veränderte Sätze lautet.Beim Delta-Typadditives Delta liefert der zu ladende Satz für summierbare Kennzahlen nur die jeweilige Änderung der Kennzahl.

für die Untergrenze sollte ein Sicherheitsintervall nur dann angegeben werden, wenn das Deltaverfahren Neuzustand für veränderte Sätze lautet, d.h. wenn der Stand im BI überschrieben wird. die Ober- bzw. Untergrenze des Intervalls kann mit einem Sicherheitsintervall versehen werden.ein Sicherheitsintervall ist beim generischen Delta nicht notwendig, da doppelte Datensätze technisch bedingt nicht vorkommen können..

C1
Hubert Tausch: BW 306/ 350
Page 19: SAP BW Übungsfragen

ZVF350 19 - 31

FrageNr#Antw. FrageBI XMLA Connector

099 3 Richtige Antworten zur Datenintegration sind:

UD Connect kann 4 verschiedene Java-Connectoren verwenden

DB Connect kann auch auf Excel-Tabellen zugreifen

0100 4 Vorraussetzung für eine funktionierende DB Connect Schnittstelle sind ....

die Installation einer DBSL (Database Shared Library) auf dem BI-Applikationsserver.

das Vorhandensein einr Multi Connect Schnittstelle.

Auf dem BI-Applikationsserver muss ein DB-Client installiert sein.0

101 3 Sind folgende Namenskonventionen richtig?DB-Connect-Datasource (BW 3.5) sind mit 6 vor dem Namen gekennzeichnet

die Verwendung reservierter Feldnamen (z.B. count) ist nicht zulässig0

102 3 Welche Aussagen sind richtig?

Zu den vier BI Java Connectors gehören u.a. BI XMLA und BI ODBC Connector.

UD Connect stellt über den SAP Java Connector Session Beans zur Verfügung.

0103 3

DB-Wiederverbindungstyp ist nicht permanent (DBCON_RECO=BLANK)

0

Das Java SDK kann in ähnlicher Weise für kundenspezifische Anwendungen verwendet werden

Bei DB Connect dürfen technische Feldnamen von Views höchstens 16 Stellen lang sein

Bevor die richtigen Daten aus den Anwendungen externer RDBMS in BI geladen werden können, müssen die Metadaten in Form einer DataSource vorhanden sein.

techn.Feldname von Tabellen und Views haben max 8 Zeichen (Großbuchstaben,Zahlen,Unterstrich)techn.Feldname von Tabellen und Views haben max 16 Zeichen (Großbuchstaben,Zahlen,Unterstrich)

Als Quellobjekt- Elemente werden die Komponenten der UD Connect Quellobjekte, z.B. Felder v. Tabellen, Merkmalen und Kennzahlen von Cubes bezeichnet.

Die UD Connect Architektur beinhaltet im wesentlichen Java Komponents auf dem J2EE Server und ABAP Komponenten in BI.

Welche Aussagen zum Thema Kennzeichen Permanent im Zusammenhang mit den techn. Einstellungen für DB - Connect sind richtig?

Die beim Start hergestellte Standardverbindung hat den impliziten DB-Wiederverbindungstyp permanent (DBCON_RECO=Z), obwohl dieser nicht in der Tabelle DBCON erscheint.

Das Kennzeichen sollte dann gesetzt werden, wenn die geöffnete DB-Verbindung unverzichtbar ist oder sehr oft auf diese zugegriffen wird und ein Abbruch vermieden werden soll.Der Permanent- Kennzeichen wird benötigt, wenn eine offene Datenbankverbindung unterbrochen wird und beim Wiederaufsetzen keine Probleme auftauchen sollen.

C1
Hubert Tausch: BW 306/ 350
Page 20: SAP BW Übungsfragen

ZVF350 20 - 31

FrageNr#Antw. Frage104 3 Welche Aussagen zum DB Connect/UDI sind richtig?

In UDI gibt es folgende Connectoren: JDBC, ODBO, SAP Query und HTML .

0105 4 Bewerten sie nachfolgende Aussagen zur Datenübertragung mittels DB Connect!

0106 2 Welche Aussagen zur Definition von DB Connect DataSources sind richtig?

0107 3 Welche Aussagen zu DB-Connect treffen zu?

Die Metadaten werden bei der ersten Extraktion von Daten mit übertragen

0108 1 Datenbereitstellung mit DB Connect & UD Connect. Welche Aussagen sind richtig?

BI JDBC Connector für Verbindung zu multidimensionalen JDBC-Datenquelle.

Datenbanken lassen sich durch das Installieren eines DBClient an SAP anbinden. Ausserdem wird eine Database Shared Library benötigt.Verbindungsparameter einer DB-Verbindung sind z.B. DB-Verbindung, Verbindungsinfo, Datenbankname.

UD Connect ermöglicht die Anbindung an nahezu jede Plattform oder jedes Quellsystem.

Voraussetzung für einen Datenzugriff mittels DB Connect ist, dass im BW-System ein Datenbank-Quellsystem angelegt wird. Für die anzubindende Datenbank ist die Installation einer Database Shared Libary auf dem Applikationsserver obligatorischÜber DB-Connect ist es möglich eine Microsoft-SQL-Datenbank an das BW-System anzubindenDas Permanent-Kennzeichen sollte gesetzt werden, wenn eine geöffnete DB-Verbindung unverzichtbar bzw. häufig auf diese zugegriffen wird

Eine DB Connect Datasource kann jederzeit mit Bezug auf ein DB Connect Quellsystem angelegt werden Technische Namen von Tabellen und Views, die in er Extraktion verwendet werden, bestehen ausschliesslich aus Großbuchstaben,Zahlen und Sonderzeichen

Voraussetzung für das Lesen der Datenbanktabellen ist die Angabe einerTabelle/View für die Datenbankextraktion UND ob Tabellen oder Views zur Selektion verfügbar sein sollenDie Markierung für transferrelevante Felder auf der Sicht "Felder" ist grundsätzlich optional

DB-Connect bezeichnet eine Schnittstellezur Extraktion von Daten aus Tabellen/Views aus DMBS.Zur Nutzung dieser Schnittstelle muß diese Datenbank als Quellsystem eingerichtet sein

Die Metadaten müssen dem BI-System mittels einer Datasource bekannt gemacht werden

Bei einem UD-Connect muss für die anzubindende Datenbank noch eine SAP-spezifische Database Shared Library auf dem BI-Applikationsserver installiert werden.Das Kennzeichen Permanent wird zur Wiederherstellung für eine offene Datenbankverbindung benötigt, wenn diese unterbrochen wird.

C1
Hubert Tausch: BW 306/ 350
Page 21: SAP BW Übungsfragen

ZVF350 21 - 31

FrageNr#Antw. Frage

0109 1 Welche Aussagen zu DB Connect sind nicht falsch?

0110 2

BI SAP Query ConnectorBI XML DB for OLAP (XMLA) ConnectorBI Java Database Connectivity (JDBC) ConnectorBI OLE for Analysis (ODBO) Connector

0111 4 Die BI Java Connector-Typen sind:

BI Java Database Connectivity (JDBC) ConnectorBI OLE DB for OLAP (ODBO) ConnectorBI XML for Analysis (XMLA) ConnectorBI SAP Query Connector

0112 2 Welche Aussagen sind richtig?

0113 2

Default-VerbindungMulti-Connect-VerbindungVirtuelle-VerbindungStandard-Verbindung

0114 4 Gibt es ....?

Outside-In-Data-Mart-ArchitekturReplizierende Data-Mart-ArchitekturGemischte Data-Mart-ArchitekturAggregierende Data-Mart-Architektur

0

UD-Connect bietet die Möglichkeit ausschließlich Daten aus Fremdsystemen für die Analyse in BI zu integrieren.

Um die Funktionen von DB Connect nutzen zu können, muss ein entsprechender DB-Client, eine SAP-spezifische DBSL sowie ein passender BI-Java-Connector installiert werden.Beim Anlegen eines DB Connect - Quellsystems muss u.a. der SAP Benutzername mit Passwort hinterlegt werden.Bei der Definition der Feldeigenschaften einer DataSource kann eingestellt werden, ob Kleinbuchstaben erlaubt sind oder nicht.Der SAP-DB Task-Scheduler steuert die gleichzeitige Nutzung einer DB-Verbindung durch mehrere SAP-Workprozesse.

Auf dem J2EE-Server des SAP NetWeaver Application Servers (AS) sind folgende BI Java Connectoren verfügbar

Technische Feldnamen von Tabellen und Views dürfen höchstens 16 Zeichen umfassen und ausschließlich aus Großbuchstaben, Zahlen und Unterstrichen bestehen.Das Permanent-Kennzeichen wird benötigt, wenn eine geschlossene Datenbankverbindung für die Transaktionsausführung geöffnet werden soll.Unabhängig von diesem Kennzeichen versucht der SAP-Workflow, die unterbrochene Verbindung wiederherzustellen.Abhängig von diesem Kennzeichen versucht der SAP-Workflow, die unterbrochene Verbindung wiederherzustellen oder nicht.

Beim Starten eines BI-Applicationservers öffnet der SAP Kernel eine Verbindung zur Datenbank, auf der das BI-System läuft. Diese Verbindung wird als: ...... bezeichnet.

C1
Hubert Tausch: BW 306/ 350
Page 22: SAP BW Übungsfragen

ZVF350 22 - 31

FrageNr#Antw. Frage115 3 Datenübertragung mit Third-Party-ETL-Tools - Welche Aussagen sind richtig?

Datenübertragung kann sowohl über Pull wie auch Push erfolgen.0

116 3 Welche Aussagen zum DataMartInterface sind richtig?

0117 4 Welche Aussagen zur SAP Exchange Infrastructure sind richtig?

0118 2 Welche Aussagen zur XML-basierten Datenbereitstellung sind korrekt?

Der Quellsystemtyp "Web Service" ist neu in SAP NetWeaver 2004s BI.

0119 4 In einem WDSL-Dokument wird Folgendes festgelegt:

Die von einem Web-Service ausgeführten FunktionenDer Ort eines Web-ServiceDie Zugangsmethode zum Web-ServiceDie durch den Web-Service ausgetauschen Daten

0120 3 Welche Aussagen zum Thema Datenübertragungsmechanismen sind richtig?

Für die Extraktion von Daten und Metadaten aus Fremdsystemen stellt BI offene Schnittstellen (Staging BAPIs) zur Verfügung.Die Staging BAPIs funktionieren nur mit DataSource 3.x und nicht mit 7.0er DataSources.Metadaten können nur manuell durch Pflege der Transferstruktur in BI definiert werden.

Bei einer replizierenden Architektur, stellt ein BI-System die Quelldaten zur Fortschreibung in andere BI-Systeme zur Verfügung.Zur Übertragung von Daten zwischen BI-Systemen müssen Sie zunächst über eine DataSource das BI-Quellsystem mit dem BI-Zielsystem verbinden.

Beim Anlegen eines Quellsystems verhalten sich alle BI-Systeme identisch zu SAP-Systemen; dies gilt auch für den Quellsystemtyp.Um Daten mit dem DataMartInterface in ein oder mehrere Zielsysteme zu übertragen ist es unter anderem wichtig folgendes zu machen: Eine Prozesskette im Zielsystem anlegen und einplanen um das Inopackage und den Datentransferprozess einzuplanen.

Die Verbindung zwischen SAP XI mit einem Anwendungssystem kann über Adapter erfolgenDie Verbindung zwischen SAP XI mit einem Anwendungssystem kann auch über Proxy erfolgenSAP Exchange Infrastructure soll die Kommunikation zwischen unterschiedlichen Schnittstellen mittels einer einheitlichen Technologie ermöglichen.

Es wird die Integration mehrerer verschiedener SAP- und SAP-fremder Systeme ermöglicht

Mittels XML beschriebene Daten, wie Elemente, Attribute und hierarchische Strukturen können anhand des Simple Object Access Protocol in BI übertragen werden.SOAP-Nachrichten bestehen aus einem Envelope, einem obligatorischen Header und einem optionalen Body.Web-Service-DataSources unterstützen u.a. die Fortschreibung in Echtzeit mit Hilfe eines Dämons (Real-Time Data Acquisition).

C1
Hubert Tausch: BW 306/ 350
Page 23: SAP BW Übungsfragen

ZVF350 23 - 31

FrageNr#Antw. Frage

0121 3 Welche Aussagen XML-basierten Extraktion sind richtig?

SOAP = XML + HTTP

0122 1 Benennen Sie die Vorteile SAP XI IntegrationsSzenarions:

Single Point of EntryFull Quality of Service (Exactly Once in Order)Read once - deploy many timesIntuitive Benutzerführung

0123 2 Welche Quellsystemtypen gibt es?

SAP-Systeme: ECC- und Bi-SystemeWeb Services, die Daten nach dem Pull-Prinzip an das BI-System

relationale oder mehrdimensionale Quellen die über DB Connect ins BI übertragen.

00

124 4

Die fehlerhaften Datensätze werden zur Laufzeit in einen Fehlerstack geschrieben.

Daten werden in der Regel unter Verwendung einer Datenanforderung in BI übertragen, die aus BI an das Quellsystem gesendet wird (Pull-Mechanismus)

Bei Web-Service-DataSources wird die Datenübertragung an BI extern durch das explizite Versenden der Daten an BI gesteuert (Push-Mechanismus)

Durch den Push-Mechanismus bei Web Services ist die Verwendung von InfoPackage überflüssigNach der Übertragung der Daten in die PSA der entsprechenden Web-Service-DataSource, stehen die zur weiteren Verarbeitung mittels DTP zur Verfügung

WSDL ist ein HTML-Format zur Beschreibung von Web Services, ähnlich des XML-Schema.

Push-InfoPackages von Web-Service-DataSources werden automatisch als Real-Time Data Acquisition-InfoPackages definiert.Zusätzlich zum Push-InfoPackage kann dem Dämon außerdem ein entsprechender Datentransferprozess vom Typ "Real-Time Data Acquisition" zugeordnet werden. Hierdurch können PSA-Daten in ein DataStore-Objekt fortgeschrieben werden und stehen somit für operatives Reporting zur Verfügung.

Flachdateien, bei denen Metadaten manuell in BI gepflegt werden und Daten über eine Dateischnittstelle in das BI-System übertragen werden.

Den Datentransferprozess (DTP) verwenden Sie, um mit Hilfe von bestimmen Transformationen und Filtern Daten innerhalb des BI von einem persistenten Objekt zu einem anderen Objekt zu übertragen. In dieser Hinsicht ersetzt der Datentransferprozess das Data Mart Interface und das InfoPackage. Welche Aussagen zum DTP stimmen?

Ein Fehlerstack eine eine Request-basierte Tabelle, in die die fehlerhaften Datensätze aus dem Datentransferprozess geschrieben werden.

Mit einem Fehler-DTP können Sie die Datensätze manuell oder mit Hilfe einer Prozesskette in das Ziel verbuchen.

C1
Hubert Tausch: BW 306/ 350
Page 24: SAP BW Übungsfragen

ZVF350 24 - 31

FrageNr#Antw. Frage

0125 3 Richtig?

Auch im Quellsystems(z.B ECC6.0) gehören zu jeder DataSource die Metadaten.

0126 2

Anwendungskomponente und InfoAreaExtraktor und ExtraktionsmethodeTransfermethode und DeltaverfahrenTransportauftrag und Request-ID

0127 1 Welche Aussagen zum BI Content sind nicht richtig?

Die D-Version wird nach der Übertragung gelöscht.

0128 1

InfoSourceInfosetDataStore-Objekt und InfoCubeInfoObject

0

Im Extraktionsmonitor für den Datentransferprozess können Sie zur PSA-Pflege navigieren, indem Sie in der Symbolleiste Fehlerstack anzeigen wählen, und im Fehlerstack die fehlerhaften Datensätze anzeigen und bearbeiten.

Sie können den Extraktionsmonitor auch über die Pflege des Datentransferprozesses, über den Prozessmonitor auf einen DTP in der Protokollsicht der Prozesskettenpflege oder über die Funktion Monitor zum BI-Objekt aufrufen für ein Zielobjekt in einem Objektbaum in der Data Warehousing Workbench aufrufen.

Im Gegensatz zur InfoSource 3.x verhält sich eine InfoSource ab SAP NetWeaver 2004s BI wie eine InfoSource 3.x mit flexibler Fortschreibung.Aus technischer Sicht umfasst eine DataSource eine Anzahl logisch zusammengehöriger Felder, die in einer komplexen Struktur (Extraktstruktur) zum Datentransfer an BI angeboten werden.

Zu den Metadaten einer DataSource gehören aus Sicht des jeweiligen Quellsystems z.B.:

Unter einem Content-Entwicklungssystem versteht man ein SAP- oder BI-System, dessen Systemeinstellung auf Content steht. Um ein Entwicklungssystem als Content-System zu nutzen, müssen Sie über die Transaktion SM 31 das entsprechende Kennzeichen für den Pflege-View RSADMINSV setzen.

Mit der Übernahme der BI Content-Objekte werden die Inhalte der D-Version kopiert und in eine A(ctive)-Version übertragen; dabei werden entsprechende Objekte im ABAP Dictionary und in Programmen generiert.

Aus dem Entwicklungssystem werden ausschließlich diejenigen Objekte exportiert, die als A-Version gesichert wurden. Beim Importieren in das Zielsystem werden diese Objekte abhängig vom Objekttyp entweder direkt in die A-Version oder in eine M-Version importiert.

Wenn Daten aus einem BI-Objekt in ein anderes BI-Objekt geladen werden, durchlaufen die Daten eine Transformation. Bei einer Transformation werden die Felder der Quelle in das Format des Ziels umgesetzt. Eine Transformation wird zwischen einer Quelle und einem Ziel angelegt. Welche Objekte sind keine Zielobjekte?

C1
Hubert Tausch: BW 306/ 350
Page 25: SAP BW Übungsfragen

ZVF350 25 - 31

FrageNr#Antw. Frage129 4

DataSource, InfoSourceDataStore-Objekt, InfoCubeInfoObjectInfoCube und InfoSet

0130 3 Richtig?

Eine Transformation nur eine Regelgruppen enthalten.

0131 1 Falsch?

0132 3

Passende FunktionenSonstige Funktionen

Logische Funktionen0

133 3

Wenn Daten aus einem BI-Objekt in ein anderes BI-Objekt geladen werden, durchlaufen die Daten eine Transformation. Bei einer Transformation werden die Felder der Quelle in das Format des Ziels umgesetzt. Eine Transformation wird zwischen einer Quelle und einem Ziel angelegt. Welche Objekte sind Quellobjekte?

Transformationsegeln ordnen eine beliebige Anzahl von Quellfeldern mindestens einem Zielfeld zu.

Routinen verwenden Sie zur Implementierung komplexer Transformationsregeln. Routinen sind als Regeltyp verfügbar.Eine Regelgruppe ist eine Gruppe von Transformationsregeln. Sie enthält eine Transformationsregel für jedes Schlüsselfeld des Ziels.

Für den Regeltyp "Formel" einer Transformation rät die SAP: Verwenden Sie Formeln nicht für VirtualProvider, da für diese die Inversion nicht zulässig ist. Verwenden Sie stattdessen Routinen.Für den Regeltyp "Direkte Zuordnung" gilt: Das Feld wird direkt aus dem gewählten Quell-InfoObject gefüllt.Zu B sagt die SAP: Wenn Sie ein Quell-InfoObject desselben Typs miteiner anderen Währung als der des Ziel-InfoObject zuordnen, müssen Sie die Quellwährung über die Währungsumrechnung in die Zielwährung umwandeln oder die Währung aus der Quelle übernehmen.

Wenn man bereits Transformationsregeln angelegt hat, werden diese vom System gelöscht, sobald eine Startroutine angelegt wird.

In der Transformationsbibliothek, die in der Pflege der Transformationsregeln (und in den Fortschreibungsregeln) zur Verfügung steht, sind vordefinierte Formeln bereitgestellt. Die Transformationsbibliothek bietet mehr als 70 vordefinierte Funktionen in folgenden Kategorien:

Funktionen für Zeichenketten, Datumsfunktionen, Grundfunktionen, Mathematische Funktionen

Bei einem Upgrade des BI Content liefert SAP die Objekte des BI Content in einer neuen D-Version aus. Bei einer erneuten Übernahme können Sie die BI Content-Objekte mit den vorhandenen Objekten in der A-Version abgleichen.

Wenn Sie keinen Abgleich durchführen, wird beim Aktivieren des BI Content die neue Version übernommen (kopiert) und die (alte) A-Version überschrieben.

Die Änderung von aus dem BI Content übernommenen Objekten ist möglich, da nicht die BI Content-Version der Objekte, sondern nur die daraus abgeleitete M-Version geändert wird.

C1
Hubert Tausch: BW 306/ 350
Page 26: SAP BW Übungsfragen

ZVF350 26 - 31

FrageNr#Antw. FrageNicht alle Objekte unterstützen das Abgleichen!

0134 1 Welche Aussagen zur Datenbereitstellung sind nicht korrekt?

Eine Delta-Queue besteht aus drei Tabellen genau wie das InfoObject.

Für jedes Third-Party-Tool muss ein eigenes Quellsystem angelegt werden.

0135 3

InfoObjects nach AnwendungskomponentenInfoAreas nach AnwendungskomponentenInfoSources nach AnwendungskomponentenTransportauftrag

0136 3 Welche Aussagen zum Datenfluss sind korrekt?

Die Metadaten einer Infosource sind persistent - ihre Daten nicht.0

137 2

(1) Auswahl der Selektionsebene(2) BI Content-Objekte pro InfoArea auswählen(2) BI Content-Objekte mit Sammelverfahren auswählen(2) BI Content-Objekte mit Gruppierungsverfahren auswählen.

0138 3

Übernahme simulieren.Übernehmen im HintergrundÜbernehmen und TransportÜbernehmen und Aktivieren

0139 3 Für den Regeltyp "Nachlesen von Stammdaten" einer Transformation gilt:

Die Änderung von aus dem BI Content übernommenen Objekten ist möglich, da nicht die BI Content-Version der Objekte, sondern nur die daraus abgeleitete A-Version geändert wird.

Voraussetzung für einen Direktzugriff auf ein Merkmal ist, dass auf Registerkarte Stammdaten/Texte das Kennzeichen gesetzt. istBeim Direktzugriff auf ein Merkmal sollten möglichst alle Navigationsattribute aus Performancegründen ausgeschaltet werden.

Der Übernahmeprozess von BI Content-Objekten lässt sich in drei Schritten beschreiben. Im linken Navigationsfenster wählt man die Selektionsebene aus. Welche gibt es?

Die Metadaten einer DataSource in der Tabelle ROOSOURCE im SAP-Quellsystem und in den Tabellen RSOLTPSOURCE (für 3.x DataSources) und RSDS (für neue DataSources) in BI abgelegt.Mit Ausnahme von BI-Content-DataSources des Typs Hierarchie unterstützen alle anderen DataSources (auch generische DataSources wie Flatfile-DataSources des Typs Hierarchie) die Transfermethode PSA.Bei DataStore-Objekten ist es möglich, die Währungsumrechnung über vordefinierte Umrechnungsarten durchzuführen.

Der Übernahmeprozess von BI Content-Objekten lässt sich in drei Schritten beschreiben:

Als Abschluss des Übernahmeprozesses von BI Content-Objekten kann man über die Auswahlliste Übernehmen folgende Optionen wählen:

Die Fortschreibung des InfoObject erfolgt durch Nachlesen der Stammdatentabelle eines Merkmals, das mit einem Schlüssel und einem Wert in der Quelle enthalten ist und das betreffende InfoObject als Attribut trägt.

C1
Hubert Tausch: BW 306/ 350
Page 27: SAP BW Übungsfragen

ZVF350 27 - 31

FrageNr#Antw. Frage

0140 1

0141 1 Welche Aussagen zum Thema Direktzugriff sind nicht richtig?

0142 1 Welche Aussagen zum BI Content sind richtig?

0143 2 Welche Aussagen zum BI Content sind nicht richtig?

Die Attribute des Merkmals und die zugehörigen Werte werden über den Schlüssel ermittelt und anschließend zurückgegeben.Wenn die Stammdaten geändert wurden, müssen Sie den Änderungslauf vornehmen. Beim Nachlesen der Stammdaten wird die aktive Version gelesen. Falls diese nicht vorhanden ist, wird eine leere Tabelle zurückgegeben.

Ein rekursives Nachlesen ist nicht möglich. Das bedeutet, dass weitere Attribute für das Attribut des Hauptmerkmals nicht nachgelesen werden können. Dazu müssen Routinen verwendet werden.

Wenn Sie Daten aus verschiedenen Quellen fortschreiben möchten (mehr als eine DataSource für ein oder mehrere Quellsysteme), ist es sinnvoll, die Daten in einer ersten Transformation auf der InfoObject-Ebene zu konsolidieren und die Transformationen, die unabhängig von den Daten sind und für alle Daten gelten, in einer zweiten Transformation vorzunehmen. Welche Aussagen sind inkorrekt?

Ab SAP NetWeaver 2004s steht ein neuer InfoSource-Typ zur Verfügung. Sie können aber weiterhin InfoSources 3.x anlegen und verwenden.Im Gegensatz zu 3.x InfoSources verhält sich eine InfoSource ab SAP NetWeaver 2004s BI wie eine InfoSource mit flexibler Fortschreibung.Aus technischer Sicht umfasst die InfoSource mit flexibler Fortschreibung logisch zusammengehörige Felder, die in einer einzigen Transferstruktur für die Fortschreibung in Datenziele angeboten werden.Hierarchien können nicht mittels einer InfoSource mit flexibler Fortschreibung fortgeschrieben werden!

Man verwendet die gleichen Extraktoren zum Auswählen der Daten im Quellsystem wie zum Replizieren der Daten in das BI-System.Wenn eine Query ausführt wird, sendet jeder einzelne Navigationsschritt einen eigenen Request an die Extraktoren der zugeordneten Quellsysteme.

Die Auswahl der Merkmale wird zusammen mit den Selektionskriterien für diese Merkmal gemäß den Transformationsregeln in Felder der Transferstruktur transformiert.Nach Anwendung der Übertragungsregeln auf die Transferstruktur werden die Ergebisse an den Extraktor übergeben.

Nach Anwendung der Übertragungsregeln auf die Transferstruktur werden die Ergebisse an den Extraktor übergeben.Nach dem Mapping der Transferstruktur werden die Ergebisse an den Extraktor übergeben.Obwohl Stammdaten und Hierarchien direkt vom Quellsystem gelesen werden, müssen diese vor der Ausführung einer Query bereits in BI vorliegen.

Die vom Extraktor gelieferten Datensätze durchlaufen die Übertragungsregeln im BI-System und werden anschließend erneut in der Query gefiltert.

Im Metadata Repository der Data Warehousing Workbench kann man sich alle BI Content-Objekte anzeigen lassen.

C1
Hubert Tausch: BW 306/ 350
Page 28: SAP BW Übungsfragen

ZVF350 28 - 31

FrageNr#Antw. Frage

0144 3 Welche Aussagen zum BI Content sind richtig?

0145 2

Manuell Sammeln: Die (abhängigen) Objekte müssen einzeln ausgewählt werden.

0146

0 nur notwendige Objekte (Standardeinstellung)0

1 Alle Objekte (Standardeinstellung)

Bei der Übernahme von BI Content-Objekten hat man die Möglichkeit, das Zielsystem zuzuordnen.Mit der Übernahme der BI Content-Objekte werden die Inhalte der D-Version kopiert und in eine A(ctive)-Version übertragen. Danach kann in der Auswahlliste "Aktivierung" die Option "Alle Aktivieren" ausgewählt werden, die die tatsächliche Überführung in aktive Objekte übernimmt.

Aus dem Entwicklungssystem werden ausschließlich diejenigen Objekte exportiert, die als A-Version gesichert wurden.

Wenn ein aktiviertes BI Content-Objekt verändert wird, um es an die Kundenanforderungen anzupassen, wird eine neue, die M(odified)-Version generiert. Diese kann dann aktiviert werden, wodurch die ältere aktive Version zur M-Version wird und die aktivierte M-Version zur A-Version.

Wenn ein aktiviertes BI Content-Objekt verändert wird, um es an die Kundenanforderungen anzupassen, wird eine neue, die M(odified)-Version generiert. Diese kann dann aktiviert werden, wodurch diese zur aktuell verwendbaren Version wird.

Wenn ein aktiviertes BI Content-Objekt verändert wird, um es an die Kundenanforderungen anzupassen, wird eine neue, die M(odified)-Version generiert. Diese kann dann aktiviert werden, wodurch die ältere aktive Version überschrieben wird.

Aus dem Entwicklungssystem werden ausschließlich diejenigen Objekte exportiert, die als A-Version gesichert wurden. Beim Importieren in das Zielsystem werden diese Objekte - abhängig vom Objekttyp entweder - direkt in die A-Version oder in eine M-Version importiert.

Der Übernahmeprozess des BI Content beinhaltet als zweiten Schritt "BI Content-Objekte mit Gruppierungsverfahren auswählen". Nach dem man das Gruppierungsverfahren ausgewählt haben, kann man die zu aktivierenden Objekte im mittleren Navigationsfenster per Drag&Drop in das rechte Navigationsfenster Gesammelte Objekte übernehmen. In der Auswahlliste Sammelmodus können Sie festlegen, auf welche Weise die Objekte gesammelt werden sollen:

Automatisch Sammeln (Standardeinstellung): Die (abhängigen) Objekte werden direkt bei der Auswahl der zu aktivierenden Objekte gesammelt.Automatisch Sammeln (Standardeinstellung): Die (abhängigen) Objekte werden direkt bei der Übernahme der ausgewählten Objekte gesammelt.Manuell Sammeln: Die (abhängigen) Objekte werden erst dann gesammelt, wenn man "abhängige Objekte sammeln" wählt.

Beim Übernahmeprozess des BI Contents kann man das Gruppierungsverfahrenauswählen. Mit dem Gruppierungsverfahren legen Sie fest, welche (abhängigen) Objekte bei der Aktivierung der BI Content-Objekte zusätzlich berücksichtigt werden sollen. Dazu stehen Ihnen folgende Möglichkeiten nciht zur Verfügung:

Sicherung für Systemkopie: mit dieser Einstellung können Objekte für einen Transportauftrag gesammelt werden - dieser Auftrag kann nach einer Systemkopie wieder eingespielt werden.

C1
Hubert Tausch: BW 306/ 350
Page 29: SAP BW Übungsfragen

ZVF350 29 - 31

FrageNr#Antw. Frage0

0147 2

BI Service API Stand SAP NetWeaver 2004s -> PI Basis 2004.3PI Basis 2006.1

0148 3

0149 3 Welche Aussagen zum Delta-Management sind richtig?

Die Delta-Queue ist eine Funktion des S-API (Service-API).

0150 1 Welche Aussagen zum Delta-Verfahren sind nicht richtig?

Sicherung für Transportauftrag: mit dieser Einstellung können Objekte für einen Transportauftrag gesammelt werden - über diesen Auftrag können dann die Objekte in des Produktivsystem transportiert werden.

Real-Time Data Acquisition unterstützt die taktische Entscheidungsfindung. Hinsichtlich der Datenbereitstellung unterstützt es das operative Reporting durch die Möglichkeit, Daten in Echtzeit (Real-time) in die Delta-Queue zu senden.Nicht notwendige Voraussetzungen von Real-Time Data Acquisition sind:

BI Content-DataSources müssen mit der Eigenschaft, Real-Time Data Acquisition zu unterstützen, ausgeliefert sein.Generische DataSources müssen in den Einstellungen zum generischen Delta das Kennzeichen Real-Time-fähig gesetzt haben.

Für die RDA gilt: Wenn die Delta-Queue des Quellsystems Daten anfordert, werden die Daten mit einem speziell dafür angelegten InfoPackage in die PSA geladen. Zuvor müssen Sie für die DataSource eine Simulation der Initialisierung des Deltaverfahrens durchführen. Auf diesem Hintergrund ist richtig:

Die Requests zu RDA-InfoPackages werden synchronisiert und bleiben nur während eines Ladeprozesse geöffnet. .Ansonsten kann die Synchronisation nicht gewährleistet werdenWenn Requests geschlossen werden, werden automatisch neue Requests geöffnet und der Datentransfer für Real-Time Data Acquisition mit diesen neuen Requests fortgesetzt.Die Requests werden erst geschlossen, wenn die im RDA-InfoPackage festgelegten Größen- und Zeitbeschränkungen überschritten werden. Angenommen die Anwendung im Quellsystem schreibt die Daten in die Delta-Queue (z. B. V3-Verbuchung für LIS-DataSources) . In diesem Fall holt der Dämon die Daten OHNE Aufruf des Extraktors.

Es wird pro BI-Zielsystem eine separate Delta-Queue zu einer Data Source eines SAP-Quellsystems (= logischer Systemname = Mandant eines SAP-Quellsystems) gehalten. Dadurch wird ermöglicht, dass Delta-Datensätze zu dieser DataSource von verschiedenen BI-Zielsystemen unabhängig voneinander angefordert werden können.

Das Delta-Verfahren ist eine Eigenschaft des Verbuchungsbausteins und gibt an, auf welche Weise Daten übertragen werden. Grundsätzlich verhalten sich Stammdaten DataSources, in Bezug auf ihr Delta-Verfahren, genau wie Bewegungsdaten DataSources.

Je nach Delta-Verfahren entscheidet das System, ob eine Serialisierung pro Request oder pro Datenpaket notwendig ist.Beim Replizieren von DataSources in ein BI-System werden Metadaten der DataSource in einer der beiden Tabellen gespeichert: ROOSOURCE für DataSources vom Typ 3.x oder RSDS für DataSources 7.0 .Einen Request mit Fortschreibungsmodus Full-Update können Sie über das Menü Scheduler als Reparatur-Full-Request kennzeichnen.

C1
Hubert Tausch: BW 306/ 350
Page 30: SAP BW Übungsfragen

ZVF350 30 - 31

FrageNr#Antw. Frage

151 3

Ein Repeat kann nur im Dialog angefordert werden.

0152 3 Welche Aussagen zur Initialisierung des Delta-Verfahrens sind richtig?

0153 3

0154 3 Welche Aussagen zur Datenbereitstellung aus Flatfiles sind richtig?

Die Initialisierung des Delta-Verfahrens ist Voraussetzung für das Anfordern von Deltas.

Der Fortschreibungsmodus (Updatemodus) im InfoPackage bestimmt welche Daten sie anfordern möchten:Bei einer Repeatanforderung werden die falsch oder unvollständig geladenen Daten der fehlerhaften Delta-Anforderung sowie die seither angefallenen Daten extrahiert.

Sie können somit die Initialisierung des Delta-Verfahrens, d. h. den Init-Request, durchführen, ohne die Verbuchung der Daten im Zielsystem stoppen zu müssen.

Sind die Daten des fehlerhaften Delta-Requests bereits in Datenziele fortgeschrieben worden, muss man die Daten aus den betreffenden Datenzielen löschen. Wenn man die Daten nicht aus den Datenzielen löschen, kann dies beim Repeat zu doppelten Datensätzen führen.!

Wenn eine Delta-Queue zur DataSource im Quellsystem erzeugt wird, bedeutet dies, dass ein leerer Ablagebereich für neue oder geänderte (Delta-)Datensätze zu einer DataSource angelegt wird.Ist kein initialer Datenbestand zu übertragen, kann das Delta-Verfahren auch mittels der Option 'Initialisierung mit Datenübertragung' initialisiert werden.

Die Selektionen der Initialisierung werden automatisch für nachfolgende Delta-Updates übernommen. Im Delta-Update können keine anderen Selektionen spezifiziert werden!Das Löschen aller Initialisierungsselektionen zur DataSource führt gleichzeitig zur Löschung der Delta-Queue zur DataSource im Quellsystem!

DataSources, die die Early-Delta-Initialisierung unterstützen, stehen seit Plug-In 2002.1 zur Verfügung. Das Feld ZDD_ABLE (Merkmalswert = X) der Tabellen RSOLTPSOURCE (in BI) oder ROOSOURCE (im Quellsystem) gibt an, ob eine DataSource eine Early-Delta-Initialisierung unterstützt. Folglich bewerten Sie welche Aussagen als korrekt?

Wenn Sie die Early-Delta-Initialisierung durchführen, kann die Verbuchung im Quellsystem weiterlaufen und die Daten können bereits in die Delta-Queue geschrieben werden, während die Initialisierungsanforderung abgearbeitet wird.

Beachten sie, dass in einigen Anwendungen (z. B. LO Cockpit) trotzdem eine verbuchungsfreie Zeit zum Füllen der so genannten Neuaufbautabellen benötigt wird. In diesen Fällen wird die verbuchungsfreie Zeit lediglich reduziert.

Die Selektion der Delta-Initialisierung zur DataSource wird abgespeichert UND die Delta-Queue zur DataSource wird im Quellsystem erzeugt.Beachten sie, dass in einigen Anwendungen (z. B. LO Cockpit) trotzdem eine verbuchungsfreie Zeit zum Füllen der so genannten Verbuchungstabellen benötigt wird. In diesen Fällen wird die verbuchungsfreie Zeit lediglich reduziert.

C1
Hubert Tausch: BW 306/ 350
Page 31: SAP BW Übungsfragen

ZVF350 31 - 31

FrageNr#Antw. FrageBei Hierarchiedaten und Textdaten gelten feste Formatanforderungen für die Datei, während bei Stammdatenattributen die Attributdatenfelder in einer beliebigen Reihenfolge vorliegen können, solange sie den Feldern in der Datei entsprechen. Die Schlüssel müssen sich jedoch am Anfang des Dateilayouts befinden.

Metadaten (beschreibende Informationen oder Daten über Daten) müssen selbstverständlich ignoriert werden. Sie können dies über die Option zu ignor. Kopfzeilen auf der Registerkarte Extraktion der Flatfile-DataSource steuern.

Beim Hochladen von externen Daten haben Sie die Möglichkeit, die Daten von einer beliebigen Workstation in BI zu laden. Aus Gründen der Performance sollten Sie jedoch die Daten auf dem Applikationsserver ablegen und von dort in BI laden. Auf diese Weise können Sie die Daten auch im Hintergrund laden

Delta-Typ 'F': Die Delta-Datensätze werden per FlatFile geladen. Dieser Delta-Typ findet nur für DataSources zu Flat File Quellsystemen Verwendung. Flatfileswerden in die PSA importiert, wenn Sie das InfoPackage ausführen. Der Stagingprozess wird daraufhin ausgeführt. Die Delta-Queue kann mit Hilfe von Pseudo-Deltas verwendet werden.

C1
Hubert Tausch: BW 306/ 350