158
TECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Maschinenwesen Lehrstuhl für Fördertechnik Materialfluss Logistik Verifikation eines methodischen Kalibrierungsverfahrens für Diskrete-Elemente-Methode-Parameter unter Einbeziehung des Rayleigh-Zeitschritts Michael Rackl Vollständiger Abdruck der von der Fakultät für Maschinenwesen der Technischen Universität München zur Erlangung des akademischen Grades eines Doktor-Ingenieurs (Dr.-Ing.) genehmigten Dissertation. Vorsitzender: Prof. Dr.-Ing. Michael Zäh Prüfer der Dissertation: 1. Prof. Dr.-Ing. Johannes Fottner 2. Prof. Dr.-Ing. André Katterfeld Die Dissertation wurde am 05.09.2017 bei der Technischen Universität München eingereicht und durch die Fakultät für Maschinenwesen am 16.01.2018 angenommen.

Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Embed Size (px)

Citation preview

Page 1: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

TECHNISCHE UNIVERSITÄT MÜNCHEN

Fakultät für Maschinenwesen

Lehrstuhl für Fördertechnik Materialfluss Logistik

Verifikation eines methodischen Kalibrierungsverfahrens

für Diskrete-Elemente-Methode-Parameter unter

Einbeziehung des Rayleigh-Zeitschritts

Michael Rackl

Vollständiger Abdruck der von der Fakultät für Maschinenwesen

der Technischen Universität München

zur Erlangung des akademischen Grades eines

Doktor-Ingenieurs (Dr.-Ing.)

genehmigten Dissertation.

Vorsitzender: Prof. Dr.-Ing. Michael Zäh

Prüfer der Dissertation:

1. Prof. Dr.-Ing. Johannes Fottner

2. Prof. Dr.-Ing. André Katterfeld

Die Dissertation wurde am 05.09.2017 bei der Technischen Universität München

eingereicht und durch die Fakultät für Maschinenwesen am 16.01.2018

angenommen.

Page 2: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Herausgegeben von: Prof. Dr.-Ing. Johannes Fottner

fml – Lehrstuhl für Fördertechnik Materialfluss Logistik

Fakultät für Maschinenwesen

Technische Universität München

Zugleich: Dissertation, München, Technische Universität München, 2018

Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere

die der Übersetzung, des Nachdrucks, der Entnahme von Abbildungen, der Wiederga-

be auf fotomechanischem oder ähnlichem Wege und der Speicherung in Datenverarbei-

tungsanlagen bleiben – auch bei nur auszugsweiser Verwendung – dem Autor vorbehal-

ten

Copyright c© Michael Rackl, 2018

Layout und Satz: Michael Rackl

ISBN 978-3-941702-91-2

Printed in Germany, 2018

II

Page 3: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Danksagung

Zuallererst möchte ich mich bei meinem Promotionsbetreuer Hr. Prof. Johannes Fottner

für die Betreuung im letzten, entscheidenden Abschnitt meiner Promotion, seine Zustim-

mung, diese Arbeit als publikationsbasierte Dissertation ausführen zu dürfen, sowie un-

sere konstruktiven Gespräche und Diskussionen bedanken. Ferner bei Hr. Prof. Willibald

A. Günthner, der mir mit der Anstellung als Wissenschaftlicher Mitarbeiter am Lehrstuhl

Fördertechnik Materialfluss Logistik (fml) die Möglichkeit zur Promotion eröffnete und der

bis Ende 2016 mein Promotionsbetreuer war. Beiden Professoren danke ich für das ent-

gegengebrachte Vertrauen und die Freiheiten zur Ausgestaltung meiner Forschungsthe-

men.

Ich danke ebenfalls Hr. Prof. André Katterfeld von Institut für Logistik und Materialflusstech-

nik der Otto von Guericke Universität Magdeburg für die Übernahme des Koreferats und

seine konstruktiven Kommentare und Anmerkungen zu meiner Arbeit. Zudem bedanke ich

mich bei Hr. Prof. Michael Zäh für die Übernahme des Vorsitzes der Prüfungskommissi-

on.

Mein besonderer Dank gilt Hr. Dr. Kevin J. Hanley von der University of Edinburgh, der

mir im Anfangsstadium der Entwicklung des Kalibrierungsverfahrens mit Rat und Tat zur

Seite stand und so zum Entstehen dieser Dissertation beitrug. Dies gilt ebenfalls für die

Studierenden, die durch ihre Studienarbeiten oder Arbeit als Wissenschaftliche Hilfskraft

einen Beitrag zu meiner Arbeit am Lehrstuhl leisteten.

Des Weiteren bedanke ich mich bei meinen Kolleginnen und Kollegen am Lehrstuhl fml, insbe-

sondere1 Matthias Amberger, Amadeusz Kargul, Stephan Kessler, Armin Lang, Christopher

Ludwig, Andreas Rücker und Yuan Tan, für den fachlichen Beistand und die vielen gemeinsa-

men Erlebnisse, an die ich mich noch lange erinnern werde.

Ich danke ebenfalls Hr. Prof. Sebastian Dendorfer von der Ostbayerischen Technischen

Hochschule Regensburg, welcher mir seit meiner Bachelorarbeit ein wichtiger Mentor war

und stets Zeit und ein offenes Ohr für mich hatte.

Zu guter Letzt sollen an dieser Stelle meine Eltern und Geschwister auf keinen Fall unerwähnt

bleiben. Sie haben mich auf meinem bisherigen Lebensweg stets bedingungslos unterstützt

und nach Kräften gefördert; Danke!

Dürn im August 2017 Michael Rackl

1In alphabetischer Reihenfolge.

III

Page 4: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 5: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Zusammenfassung

Jährlich werden weltweit circa zehn Milliarden Tonnen granularer Materie, Pulver oder ähn-

liche Gemenge hergestellt. Diese Stoffe werden im Bereich des Materialflusses und der

Logistik als Schüttgüter bezeichnet und sind in vielen Industriezweigen der bevorzugte

Zustand für Handhabung und Transport. Die Diskrete-Elemente-Methode (DEM) wird seit

den 2000er Jahren mit steigender Tendenz zur numerischen Simulation von Schüttgütern

und deren Interaktion mit Versuchsvorrichtungen und Anlagen angewandt. Beispiele für An-

wendungen der DEM sind die Simulation von Transportvorgängen, Fließproblemen oder die

Analyse von Mischprozessen. Wie für numerische Simulationsmodelle des Ingenieurwesens

üblich, müssen auch für DEM-Modelle Parameter festgelegt werden. Hierbei beziehen sich

diese Parameter auf die spezifischen Eigenschaften des zu diskretisierenden Schüttguts,

d. h. dessen Materialeigenschaften und den Kontakt der Schüttgutpartikel untereinander

und mit ihrer Umgebung. Das Problem bei DEM-Modellen ist, dass physikalisch messbare

Kenngrößen aus verschiedenen Gründen nicht direkt in die Simulation übernommen werden

können, sondern abhängig von der konkreten Anwendung kalibriert werden müssen. Die

vorliegende publikationsbasierte Dissertation beschäftigt sich mit der Parametrierung von

Material- und Kontaktparametern für die DEM. Es wird ein durchgehendes, methodisches

Verfahren beschrieben, welches den Prozess der DEM-Parameterfindung für Anwender

vereinfacht und komplexe Problemstellungen bei der Parameterfindung beherrschbar macht.

Das Kalibrierungsverfahren kombiniert Latin hypercube sampling, Kriging und ein multivaria-

tes Optimierungsverfahren, um geeignete DEM-Parametersätze zu identifizieren. Zudem

wurde der Rayleigh-Zeitschritt als zusätzliche Zielgröße für den Optimierungsalgorithmus

übernommen, um numerisch effiziente Parametersätze zu erhalten. Der entwickelte Ka-

librierungsprozess wurde mittels open-source Software in ein automatisch ablaufendes

Verfahren umgesetzt und konnte erfolgreich getestet, verifiziert und auf seine Robustheit

hin überprüft werden. Es wurde demonstriert, dass die mittels des Verfahrens kalibrierten

Parametersätze in der Lage sind, die schüttgutbezogenen Zielgrößen Böschungswinkel

und Schüttdichte korrekt abzubilden. Des Weiteren wurde gezeigt, dass der Rayleigh-

Zeitschritt aktiv in die Kalibrierung von DEM-Parametern einbezogen werden kann und somit

numerisch effizientere Parametersätze gefunden werden, ohne die schüttgutbezogenen

Zielgrößen zu stark zu beeinflussen. Die Eignung des Böschungswinkels als Zielgröße für

die Kalibrierung von DEM-Parametersätzen konnte bestätigt werden. Gleichwohl wurde

belegt, dass der Böschungswinkel nicht für alle kohäsionslosen Schüttgüter zweckmäßig

ist.

V

Page 6: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 7: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Abstract

Worldwide approximately ten billion metric tons of granular matter, powders and similar

mixtures are produced annually. These materials are referred to as bulk solids within the field

of material flow and logistics and present the preferred condition for handling and transport of

materials in many industries. Ever since the 2000s the discrete element method (DEM) has

increasingly gained popularity for numerical modeling and simulation of bulk solids and their

interaction with experimental setups and process plants. Transport and mixing processes

as well as analysis of flow problems are typical applications, which can be assessed by

DEM. As usual for computational methods in engineering, parameters need to be specified

for DEM models. These parameters refer to the bulk solid’s specific properties, i. e., its

material properties and the bulk solid’s particles’ contact between each other and their envi-

ronment. The problem with DEM models is that physically measurable parameters cannot be

directly adopted for the simulation, but the numerical equivalent requires application-specific

calibration for various reasons. This publication-based dissertation deals with parameter

identification of material and contact law parameters for the DEM. A continuous, methodical

procedure is described, which simplifies the process of DEM parameter identification for

users and increases the controllability for complex calibration problems. The calibration

procedure combines Latin hypercube sampling, Kriging and a multi-variate optimization

method, to identify suitable DEM parameter sets. Furthermore, the Rayleigh time step was

considered as an additional target value for the optimization algorithm, to obtain numerically

more efficient parameter sets. The calibration procedure was implemented with open-source

software into an automatic process and successfully tested, verified and its robustness

investigated. It could be demonstrated that the parameter sets generated by the procedure

were able to correctly reproduce the bulk solid-related characteristics angle of repose and

bulk density. In addition, it was shown that active consideration of the Rayleigh time step

during the calibration process can lead to numerically more efficient DEM parameter sets,

while having no considerable impact on the bulk solid-related target values. The angle of

repose’s eligibility as target value for the calibration of DEM parameter sets was confirmed,

however the results showed that it is not an advisable target value for any cohesionless bulk

solid.

VII

Page 8: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 9: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Inhaltsverzeichnis

Zusammenfassung V

Abstract VII

Formelzeichenverzeichnis XIII

Abkürzungsverzeichnis XIX

1 Einleitung 1

2 Stand der Wissenschaft und Technik 3

2.1 Schüttgutcharakterisierung 3

2.1.1 Auswahl von Charakterisierungsmerkmalen für die Kalibrierung 3

2.1.2 Schüttdichte 5

2.1.3 Böschungswinkel 6

2.1.3.1 Verbindung zur Kontinuumsmechanik 6

2.1.3.2 Messung und praktische Relevanz 11

2.2 Diskrete-Elemente-Methode 13

2.2.1 Kontaktberechnung 14

2.2.1.1 Kontaktfindung 14

2.2.1.2 Hertz-Mindlin-Kontaktmodell 15

2.2.1.3 Erweiterung des Hertz-Mindlin-Kontaktmodells 18

2.2.2 Integration der Bewegungsgleichungen 19

2.2.3 Simulationszeitschritt 20

2.3 Kalibrierung von materialbezogenen Diskrete-Elemente-Parametern 21

2.3.1 Hintergrund zur Kalibrierung 22

2.3.2 Existierende Ansätze zur Kalibrierung 23

2.4 Bestimmung von Parametern in Kalibrierungsproblemen 26

2.4.1 Numerische Optimierungsverfahren 27

2.4.2 Metamodelle 29

2.4.2.1 Hintergrund 29

2.4.2.2 Auswahl eines Metamodells 30

2.5 Statistische Methoden 32

2.5.1 Boxplots 32

2.5.2 Pearson-Korrelationskoeffizient 33

IX

Page 10: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Inhaltsverzeichnis

2.5.3 Varianzanalyse 33

2.6 Latin hypercube sampling und Kriging 35

2.6.1 Latin hypercube sampling 36

2.6.2 Kriging 37

3 Forschungsbedarf und Ziel der Arbeit 39

3.1 Problemstellung 39

3.2 Ziel der Arbeit 40

4 Kalibrierungsverfahren 43

4.1 Artikel 1: Entwicklung und Implementierung des Kalibrierungsverfahrens 43

4.1.1 Beitrag zur Veröffentlichung 44

4.1.2 Beitrag zum Kalibrierungsverfahren 44

4.2 Artikel 2: Untersuchung der Robustheit des Kalibrierungsverfahrens 46

4.2.1 Beitrag zur Veröffentlichung 47

4.2.2 Beitrag zum Kalibrierungsverfahren 47

4.3 Artikel 3: Erweiterte Validierung und Einfluss des Rayleigh-Zeitschritt-Kriteriums 49

4.3.1 Beitrag zur Veröffentlichung 49

4.3.2 Beitrag zum Kalibrierungsverfahren 49

4.4 Artikel 4: Zum Böschungswinkel als Zielgröße für die Kalibrierung 53

4.4.1 Beitrag zur Veröffentlichung 53

4.4.2 Beitrag zum Kalibrierungsverfahren 53

5 Vergleich des Kalibrierungsverfahrens mit anderen Ansätzen 57

5.1 Untersuchte Kalibrierungsansätze und Studienaufbau 57

5.2 Ergebnisse und Diskussion 58

5.3 Fazit zum Vergleich mit anderen Ansätzen 62

6 Fazit und Ausblick 65

6.1 Fazit 65

6.2 Ausblick 67

Literaturverzeichnis 77

A Anhang: Abdrucke der eingebundenen Artikel A-79

A.1 Abdruck von Artikel 1 A-79

A.2 Abdruck von Artikel 2 A-93

A.3 Abdruck von Artikel 3 A-103

X

Page 11: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Inhaltsverzeichnis

A.4 Abdruck von Artikel 4 A-117

B Liste betreuter Studienarbeiten B-133

C Lebenslauf und Veröffentlichungen des Autors C-135

XI

Page 12: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 13: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Formelzeichenverzeichnis

Wo möglich, ist die im Maschinenbau übliche Einheit angegeben.

Zeichen Beschreibung Einheit

α rotatorische Beschleunigung rad/s2

α(t) rotatorische Beschleunigung zum Zeitpunkt t rad/s2

β Koeffizienten

βH Hilfsgröße 1

βi i-ter Koeffizient

δ Überlappung, allgemein m

∆Mkr inkrementelle Änderung von Mk

r N m

∆t Änderung des Zeitschritts s

δn Überlappung von zwei Kugeln in Normalenrichtung m

δt Überlappung von zwei Kugeln in Tangentialrichtung m

∆µR rel. Differenz von µR zwischen 1. und 2. Optimierungs-

phase

%

∆φB rel. Differenz zum Böschungswinkel-Zielwert %

∆φB,Meta-DEM rel. Differenz zwischen φB aus Meta- und DEM-Modell %

∆ρP rel. Differenz von ρP zwischen 1. und 2. Optimierungspha-

se

%

∆ρS rel. Differenz zum Schüttdichte-Zielwert %

∆ρS,Meta-DEM rel. Differenz zwischen ρS aus Meta- und DEM-Modell %

∆θr inkrementelle, relative Rotation zwischen 2 Kugeln rad

ε Zielfunktion

εMM Zielfunktion der Metamodell-Parametrierung

µ innerer Reibungskoeffizient 1

µR Coulomb’scher Reibungskoeffizient 1

µr Rollreibungskoeffizient 1

µR,kal. kalibrierter Rollreibungskoeffizient 1

µR,MM Startwert von µR für 2. Optimierungsphase 1

µR,ZP µR nach Ende der 2. Optimierungsphase 1

ν Querkontraktionszahl 1

νi, νj Querkontraktionszahl von Partikel i bzw. j 1

φ Winkel, unter dem freigeschnitten wird ◦

φB Böschungswinkel ◦

XIII

Page 14: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Inhaltsverzeichnis

Zeichen Beschreibung Einheit

φτ,max maximale Schubspannung in der Schnittfläche N m−2

ρP Dichte der Partikel kg m−3

ρS Schüttdichte, allgemein kg m−3

ρP,kal. kalibrierte Partikeldichte kg m−3

ρP,MM Startwert von ρP für 2. Optimierungsphase kg m−3

ρP,ZP ρP nach Ende der 2. Optimierungsphase kg m−3

ρZW Dichte des Zwischenraummediums kg m−3

σ Normalspannung, allgemein N m−2

σφ Normalspannung in der Schnittfläche N m−2

σZ , σX Normalspannung Richtung von Z bzw. X N m−2

τ Schubspannung, allgemein N m−2

τφ Schubspannung in der Schnittfläche N m−2

τφ,I , τφ,II Schubspannung im Fall I bzw. Fall II N m−2

~pi, ~pj Ortsvektor zum Mittelpunkt der Kugel i bzw. j m

a translatorische Beschleunigung m s−2

a(t) translatorische Beschleunigung zum Zeitpunkt t m s−2

cc Kohäsion N m−2

cn Kontaktdämpfung in Normalenrichtung kg s−1

ct Kontaktdämpfung in Tangentialrichtung kg s−1

dc Abstand der Probenpunkte

dq Interquartilsabstand

DLHS Latin hypercube-Versuchsplan

dsel kleinster Probenpunkte-Abstand für MAXIMIN-Kriterium

e Stoßzahl zwischen Partikel i und j 1

E ′ reduzierter Elastizitätsmodul N m−2

Ei, Ej Elastizitätsmodul von Partikel i bzw. j N m−2

F Kontaktkraft N

fi Funktionen

Fi am beschleunigten Körper angreifende Kräfte N

Fn Anteil der Kontaktkraft in Normalenrichtung N

Ft Anteil der Kontaktkraft in Tangentialrichtung N

G Schubmodul N m−2

G′ reduzierter Schubmodul N m−2

XIV

Page 15: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Inhaltsverzeichnis

Zeichen Beschreibung Einheit

h Metamodell

H System bzw. Modell

hp Anzahl der Probenpunkte-Paare 1

j Faktor

Ji Trägheitsmoment eines beschleunigten Körpers kg m−2

k Faktorstufe von j

K Anzahl der Koeffizienten 1

kn Kontaktsteifigkeit in Normalenrichtung N m−1

kr Rollreibungssteifigkeit N m

kt Kontaktsteifigkeit in Tangentialrichtung N m−1

L Vektor von Modellparametern

Lc Lösungsparametersatz für die Zielfunktion

LS Länge der Schnittfläche m

LMM Parameter des Metamodells

m′ reduzierte Masse kg

mi Masse eines beschleunigten Körpers kg

Mi,Mj Drehmoment an der Kugel i bzw. j N m

mP Masse der Partikel kg

Mr Drehmoment aus Rollreibung N m

Mdr viskoser Dämpfungsanteil von Mr N m

Mkr elastischer Anteil von Mr N m

Mkr,t+∆t Mk

r zum Zeitpunkt t+ ∆t N m

Mkr,t Mk

r zum Zeitpunkt t N m

MU_PP Reibungskoeffizient zwischen Partikel und Partikel 1

MU_PW Reibungskoeffizient zwischen Partikel und Wand 1

mZW Masse des Zwischenraummediums kg

N Anzahl der Faktorintervalle 1

n Anzahl der Partikel im Modell 1

nj Anzahl der Faktorstufen von j 1

np Anzahl der Beobachtungen von y 1

nfj Anzahl der betrachteten Faktoren und Faktor-

Wechselwirkungen

1

NXY Anzahl der Beobachtungen von X und Y 1

XV

Page 16: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Inhaltsverzeichnis

Zeichen Beschreibung Einheit

p Position m

pj, qj Probenpunkte

Q Anzahl möglicher Kontaktpaare 1

q25, q75 25- bzw. 75 %-Quantil

r′ reduzierter Kugelradius m

RF_PP Rollreibungskoeffizient zwischen Partikel und Partikel 1

RF_PW Reibungskoeffizient zwischen Partikel und Wand 1

ri, rj Radius der Kugel i bzw. j m

rmin kleinster Partikelradius im Modell m

R(xs) zufälliger Anteil von Zs

rXY , rY X Pearson-Korrelationskoeffizient 1

Sn Hilfsgröße für die Berechnung von cn N m−1

SPP Anzahl der LHS-Probepunkte pro Parameter 1

St Hilfsgröße für die Berechnung von ct N m−1

S(xs) analytischer Anteil von Zs

SSe Summe der quadrierten Differenzen durch den Fehler

SSt Gesamtvariabilität von y

SSfj×fm Summe der quadrierten Differenzen durch Wechselwir-

kung

SSfj Summe der quadrierten Differenzen durch Faktor j

ti i-ter Zeitpunkt s

tR kritischer Rayleigh-Zeitschritt s

tS Simulationszeitschritt s

tR,SK tR für Stahlkugeln s

ts,SK Simulationszeitschritt für Stahlkugeln s

v Anzahl der statistischen Freiheitsgrade 1

V Varianz

Ve Fehlervarianz

ve Fehler-Freiheitsgrad 1

vf Faktor- bzw. Faktor-Wechselwirkungs-Freiheitsgrad 1

Vj Varianz durch Faktor bzw. Faktor-Wechselwirkung

Vk Faktorintervall

VP Volumen der Partikel m3

XVI

Page 17: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Inhaltsverzeichnis

Zeichen Beschreibung Einheit

Vt Gesamtvarianz

vt Gesamtfreiheitsgrad 1

vk,L Untergrenze von Vk

vk,U Obergrenze von Vk

vSP Geschwindigkeit im Schwerpunkt m s−1

vtan tangentiale Relativgeschwindigkeit zwisch. zwei Kugeln m s−1

VZW Volumen des Zwischenraummediums m3

wk Breite von Wk,i

Wk,i Teilintervall von Vk

WRL Gewichtungsfaktor für den Anteil von tR an der Zielfunkti-

on

1

x Modell-Eingangsparameter

x, y Mittelwert von X bzw. Y

X, Y beobachtete Größen

xA als Ausreißer klassifizierter Wert

xi, yi i-te Beobachtung von X bzw. Y

xM Stellen, an denen yM bekannt sind

xs Eingangsgröße

xu nicht beprobte Stellen

xk,i zufälliger Wert aus Wk,i

xMM mittels des Metamodells untersuchte Stellen

y Systemantwort(en) eines Modells

yM bekannte Systemantworten bei xM

YM Elastizitätsmodul N mm−2

Zs Ausgangsgröße

Zu Ausgangsgröße an nicht beprobten Stellen

XVII

Page 18: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 19: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Abkürzungsverzeichnis

Abkürzung Bedeutung

ANOVA Varianzanalyse

Anz. Anzahl

DEM Diskrete-Elemente-Methode

DS Datensatz

EGO efficient global optimization

EI expected improvement

GPL General Public License

KAP Kriging-Metamodell mit approximierendem Ansatz

KIP Kriging-Metamodell mit interpolierendem Ansatz

KNN „Künstliches neuronales Netzwerk“-Metamodell

MANOVA multivariate Varianzanalyse

XIX

Page 20: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 21: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

1 Einleitung

Jährlich werden weltweit circa zehn Milliarden Tonnen granularer Materie, Pulver oder

ähnliche Gemenge hergestellt [Dur-00, S. 3-4]. Diese Stoffe werden im Bereich des Material-

flusses bzw. der Logistik als Schüttgüter bezeichnet und sind in vielen Industriezweigen der

bevorzugte Zustand für Handhabung und Transport. Neben den Branchen Verfahrenstechnik,

Pharmazie, Kunststoffverarbeitung, Abfallentsorgung und Bergbau kommen Schüttgüter

auch in der Landwirtschaft und der Lebensmittelindustrie in beträchtlichen Mengen vor.

Die großen Produktionsmengen und die weite Verbreitung von Schüttgütern zeigen sich

unter anderem in den Transportstatistiken der Europäischen Union, wonach Schüttgüter

nach Masse und Straßenkilometer die mit 20 % am zweithäufigsten auf der Straße trans-

portierten Güter ausmachen [eur-17a]; auch beim Umschlag an den europäischen Häfen

entfallen fast 30 % auf sogenannte dry bulk solids [eur-17b], unter die auch Schüttgüter

fallen.

Die typischen Schüttgut betreffenden Prozesse sind Lagern, Transportieren, Dosieren,

Mischen und Verarbeiten. Die Konzipierung, der Entwurf und die Dimensionierung von

Anlagen für diese Prozesse ist eine Aufgabe, welche in der industriellen Praxis zumeist

basierend auf der Betreiber- bzw. Herstellererfahrung oder empirischen Gleichungen aus

Normen erfolgt. Seit den 2000er Jahren hat sich neben diesen empirischen Methoden die

Simulation mittels numerischer Verfahren etabliert. Die Diskrete-Elemente-Methode wird

seitdem mit steigender Tendenz zur Modellierung von Schüttgütern und zur Simulation von

deren Interaktion mit Versuchsvorrichtungen oder Anlagen eingesetzt. Mit ihrer Hilfe können

statische und dynamische Prozesse simuliert und Ergebnisgrößen ausgewertet werden,

die messtechnisch nur sehr schwierig zu erfassen sind oder teure Versuchsstände und

Prototypen erfordern würden.

Typische Probleme bei der Schüttgut-Handhabung, wie z. B. Segregation oder Fließpro-

bleme [Dur-00, S. 10-12], können mit der Diskrete-Elemente-Methode abgebildet und ihre

Gründe identifiziert werden. Durch das Verständnis der Ursachen von schüttgutbezogenen

Problemen können die betroffenen Prozesse verbessert und ähnliche Probleme in der Zu-

kunft gänzlich vermieden werden. Konkrete Anwendungen der Diskrete-Elemente-Methode

sind beispielsweise die Simulation von Transportvorgängen, Fließproblemen, die Analyse

von Mischprozessen, Tablettierungsvorgängen, Mahlprozessen sowie die Untersuchung

von Wirbelbett-Anwendungen oder pneumatischen Fördervorgängen durch Kopplung mit

Methoden der numerischen Strömungsmechanik. Für die Bauteildimensionierung ist insbe-

sondere die Kopplung zwischen der Diskrete-Elemente-Methode und der Finite-Elemente-

1

Page 22: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

1 Einleitung

Methode interessant, da Bauteilbeanspruchungen durch Schüttgut induzierte Belastungen

analytisch beziehungsweise empirisch nur mit beschränkter Genauigkeit bestimmt werden

können.

Wie für numerische Simulationsmodelle des Ingenieurwesens üblich, müssen auch für

Diskrete-Elemente-Methode-Modelle Parameter festgelegt werden. Hierbei beziehen sich

diese Parameter auf die spezifischen Eigenschaften des zu diskretisierenden Schüttguts,

d. h. dessen Materialeigenschaften und den Kontakt der Schüttgutpartikel untereinander

und mit sogenannten Wänden. Bei Wänden handelt es sich um Begrenzungsflächen, die

für die Simulationspartikel undurchlässig sind, wodurch zum Beispiel die Geometrie von

Förderanlagen berücksichtigt werden kann.

Die vorliegende publikationsbasierte Dissertation beschäftigt sich mit der Parametrierung

von Material- und Kontaktparametern für die Diskrete-Elemente-Methode. Es wird ein me-

thodisches Verfahren vorgestellt, welches den Prozess der Diskrete-Elemente-Methode-

Parameterfindung für Anwender vereinfacht und komplexe Problemstellungen bei der Para-

meterfindung beherrschbar macht.

2

Page 23: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Um Diskrete-Elemente-Methode-Modelle erfolgreich und effizient zu kalibrieren, müssen vie-

le Aspekte einbezogen werden. Insbesondere sind Kenntnisse aus den Bereichen Schüttgut-

charakterisierung und der Diskrete-Elemente-Methode-Theorie unverzichtbar.

2.1 Schüttgutcharakterisierung

Bei der Charakterisierung von Schüttgütern kann zwischen zwei verschiedenen Betrach-

tungsweisen unterschieden werden. Ein Gemenge aus Partikeln unterschiedlicher Größe

und Form kann aus mechanischer Sicht als Kontinuum oder als System von Einzelpartikeln

angesehen werden. Der Unterschied dabei ist, dass beim Einzelpartikel-Ansatz die Interakti-

on zwischen den einzelnen Partikeln betrachtet wird, wohingegen sich der Kontinuumsansatz

mit über das System von Partikeln integrierten Kräften und Verformungen befasst. [Sch-14,

S. 9]

Diese Unterscheidung führt dazu, dass bei der experimentellen Charakterisierung von Schütt-

gütern Verfahren eingesetzt werden, die Kenngrößen sowohl auf der mikro- als auch auf der

makroskopischen Ebene bestimmen. McGlinchey [McG-05] bezeichnet die Messungen auf

der Mikroebene als Partikelcharakterisierung und jene in der Makroebene als Schüttgutcha-

rakterisierung. Je nach dem Interesse oder der Problemstellung in Bezug auf ein bestimmtes

Schüttgut kommen Messungen aus beiden Ebenen in Frage. Ihre parallele Existenz schließt

sich gegenseitig keinesfalls aus und die am weitesten verbreiteten Messgrößen können zu

gleichen Teilen beiden Ansätzen zugeordnet werden.

2.1.1 Auswahl von Charakterisierungsmerkmalen für die Kalibrierung

Es existiert eine große Vielzahl an verschiedenen und ähnlichen Charakterisierungsmerkma-

len für Schüttgüter und Partikel. Gängige Charakterisierungsverfahren sind z. B. Scherversu-

che, bei denen unter anderem der innere Reibungskoeffizient bestimmt wird, Versuche zur

Beschreibung der Fließfähigkeit oder Druckversuche zur Untersuchung des Verfestigungs-

verhaltens. Wegen der nur lückenhaften Standardisierung von Messverfahren für Schüttgüter

und deren überschaubaren geometrischen Abmessungen im Labormaßstab, können mit

den entsprechenden Versuchsaufbauten oft nur Pulver oder feinkörnige Granulate mit Parti-

kelgrößen von wenigen Millimetern untersucht werden. Es fehlen allgemeingültige Verfahren,

die auch auf schwer-fließende Schüttgüter mit großen Partikelgrößen angewandt werden

können.

3

Page 24: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Aus Zeit- und Kostengründen wird als Basis für die Kalibrierung von Diskrete-Elemente-

Methode-Parametern meist nur eine handvoll Merkmalen experimentell erfasst. Im Bereich

der Schüttgutfördertechnik sind dies oft die Folgenden [Coe-17]:

• Partikelgrößenverteilung

• Auslaufzeit von Schüttgut aus einem Behälter

• Fließfähigkeit und Verfestigungsverhalten

• Schüttdichte

• Böschungswinkel

In dieser Liste ist nur die Partikelgrößenverteilung als ein Mikroebenen-Merkmal anzusehen,

welches anhand einzelner Partikel bestimmt wird. Es ist zu beachten, dass Schüttgüter

in unterschiedlichen Partikelgrößenverteilungen vorliegen können, je nachdem, ob das

Gut zum Beispiel in klassiertem oder agglomeriertem Zustand vorliegt. Die Kenntnis der

Partikelgrößen ist grundlegend für die Auswahl von anderen Charakterisierungsverfahren

sowie die geometrische Dimensionierung von Anlagen und insbesondere Auslauföffnun-

gen.

Die Auslaufzeit eines mit Schüttguts gefüllten Behälters ist ein einfacher Versuch, mit dem

sich ein qualitativer Rückschluss auf die Fließfähigkeit ziehen lässt. Die Fließfähigkeit wird

schlechter eingeordnet wenn die Entleerung des Behälters länger dauert. Da sich bei der

Durchführung unter der Behälteröffnung ein Haufwerk bildet, wird dieser Versuch gerne mit

der Böschungswinkelmessung kombiniert [Coe-17].

Belastbare Daten zur Fließfähigkeit eines Schüttguts erhält man aus Scherzellenversuchen

[Sch-14, S. 200-207]. Mit ihnen kann neben der Fließfähigkeit auch der innere Reibungskoeffi-

zient und das Verfestigungsverhalten quantifiziert werden, weshalb Messdaten aus Scherzel-

lenversuchen vor allem zur Siloauslegung herangezogen werden.

Auf Schüttdichte und Böschungswinkel wird explizit in den Abschnitten 2.1.2 und 2.1.3

eingegangen. Beide Größen sind in allen mit granularer Materie befassten Arbeitsbereichen

bekannt und die wahrscheinlich am häufigsten berichteten Kenngrößen, da sie für fast

jedes Schüttgut sinnvoll gemessen werden können. Deshalb wurden in dieser Arbeit der

Böschungswinkel und die Schüttdichte als Zielgrößen für die Verifikation des Kalibrierungs-

verfahrens ausgewählt.

Es sei an dieser Stelle ausdrücklich darauf hingewiesen, dass das mechanische Ver-

halten eines Schüttguts nicht alleine durch die Schüttdichte und den Schüttwinkel be-

4

Page 25: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.1 Schüttgutcharakterisierung

schrieben werden kann. Die Auswahl der heranzuziehenden Schüttgutcharakteristika sollte

sich stets am vorliegenden Anwendungsfall orientieren und die entsprechenden Kenngrö-

ßen müssen repräsentativ für die konkret zu untersuchenden Bedingungen und Effekte

sein.

2.1.2 Schüttdichte

Bei der Schüttdichte handelt es sich um die wichtigste Messgröße der Schüttgutcharakterisie-

rung. Die Kenntnis der volumenbezogenen Masse eines granularen Materials ist essentiell

für die korrekte Bestimmung der Massenlasten auf Anlagen, die für dessen Transport und

Verarbeitung konzipiert werden.

Die allgemeine Definition für die Schüttdichte ρS ist Gleichung 2-1, worin m Masse und

V Volumen bezeichnet. Die Indizes P und ZW beziehen sich auf die Partikel bzw. die

Zwischenräume zwischen den Partikeln. Sofern das Zwischenraumvolumen VZW mit einem

Medium gefüllt ist, dessen Reindichte ρZW in Relation zur Partikelreindichte ρP vernach-

lässigbar klein ist, kann diese Gleichung zu Gleichung 2-2 vereinfacht werden. [McG-05,

S. 49]

ρS =mP +mZW

VP + VZW(2-1)

ρS =mP

VP + VZWfür ρZW � ρP (2-2)

Obgleich der eindeutigen Definition der Schüttdichte gibt es zum Teil erhebliche Unterschiede

bei den Messverfahren, die ihr Ergebnis als Schüttdichte ausweisen. So listet Stanley-Wood

[Sta-09, S. 8-11] alleine sechs Gruppen von Messmethoden auf, welche wiederum zu meh-

reren Messverfahren führen. Die unterschiedlichen Messmethoden und -verfahren gründen

darauf, dass die Schüttdichte keine konstante Größe ist. Sie hängt nicht nur maßgeblich

von der Art des Schüttguts ab, sondern auch davon, ob das Gut z. B. komprimiert wurde, in

welcher Partikelform und Partikelgrößenverteilung es vorliegt oder wie viel Feuchtigkeit im

Schüttgut gebunden ist [Sta-09, S. 5-8].

Zwei gängige Schüttgut-Messmethoden sind die sogenannte geschüttete Schüttdichte und

die geklopfte Schüttdichte. Erstere wird bestimmt, indem in einen Behälter mit bekanntem Vo-

lumen aus konstanter Höhe Schüttgut eingeschüttet wird, bis dieser überquillt. Im Anschluss

wird die Oberfläche über die Behälterkante glatt gestrichen und die im Behälter befindliche

Masse gewogen. Die Messung der geklopften Schüttdichte erfolgt in ähnlicher Weise, jedoch

5

Page 26: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

wird der gefüllte Behälter definierten Stößen oder Vibration ausgesetzt, um das darin befind-

liche Schüttgut zu verdichten und einen definierten Kompaktierungszustand zu erreichen

[Sta-09, S. 10]. Die Unterschiede bei der Schüttdichtemessung können beträchtlich sein. So

liegt die Schüttdichte von aufgeschüttetem Zement beispielsweise bei 1000 kg m−3, während

sie im verdichteten Fall 1400 kg m−3 beträgt [McG-05, S. 48-49]. Diese Differenz von 40 %

belegt, dass bei der Angabe eines Werts für die Schüttdichte auch stets das verwendete

Messverfahren beschrieben werden muss.

2.1.3 Böschungswinkel

Der Böschungswinkel φB eines Schüttguts ist definiert als der Winkel zwischen der Hori-

zontalen und der Mantelfläche eines lose aufgeschütteten Haufwerks, wie in Abbildung 2-1

dargestellt. Die Messung des Böschungswinkels ist ein einfacher Vergleichstest und sein

Wert folgt aus dem Schüttgutverhalten unter sehr kleinen Spannungen [Sch-14, S. 184].

Seine Messung ist nur für leicht fließende bis leicht kohäsive Schüttgüter sinnvoll [Sta-09,

S. 27]. Obwohl der Böschungswinkel oft angegeben wird, ist seine absolute Aussagekraft be-

grenzt. Viele Schüttgüter weisen ähnlich große Böschungswinkel auf und er wird neben dem

aufgeschütteten Material auch von dessen Partikelform und Partikelgrößenverteilung beein-

flusst. Er wird meist verwendet, um die Fließfähigkeit eines Schüttguts abzuschätzen [Sta-09,

S. 27-28] und Schüttgüter untereinander zu vergleichen.

Abbildung 2-1: Böschungswinkel, φB , ei-

nes lose aufgeschütteten

Haufwerks.

2.1.3.1 Verbindung zur Kontinuumsmechanik

Das Verhalten von Schüttgütern unter Beanspruchung kann durch Berechnungsgrundlagen

aus der Kontinuumsmechanik beschrieben werden. Um die Brücke zwischen der Kontinu-

umsmechanik und dem System aus Einzelpartikeln zu schlagen, folgt die hier gezeigte

Herleitung den Ausführungen von Schulze [Sch-14, S. 13-20].

Betrachtet man ein masseloses Schüttgut-Element, das in Z-Richtung mit der Normalspan-

nung σZ beaufschlagt ist und dessen Deformation in X-Richtung durch starre, reibungsfreie

6

Page 27: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.1 Schüttgutcharakterisierung

Wände behindert wird (Abbildung 2-2a), so stellt sich an den Wänden die Normalspannung

σX als Reaktion ein (Abbildung 2-2b). Aus Erfahrung ist bekannt, dass sich Schüttgüter nicht

wie newtonsche Flüssigkeiten verhalten und die Normalspannung σX kleiner als σZ sein

wird. Dieses Verhalten zeigt, dass die im Schüttgut wirkenden Spannungen richtungsab-

hängig sein können. Der Quotient aus σX und σZ wird als Horizontalspannungsverhältnis

bezeichnet.

Abbildung 2-2: Schüttgutelement mit Beanspruchung durch die Normalspannung σZ (a) und Reaktion aus

starren, reibungsfreien Wänden, σX (b).

Um herzuleiten, welche Spannungen in Ebenen auftreten, die nicht senkrecht zu den Nor-

malspannungen aus Abbildung 2-2b sind, wird das Schüttgut-Element unter dem Winkel φ

freigeschnitten sowie die an der Schnittfläche wirkende Normal- und Schubspannung ange-

tragen und mit σφ bzw. τφ bezeichnet (siehe Abbildung 2-3). Es wird dabei angenommen,

dass ein ebener Spannungszustand vorliegt [Ned-92, S. 9] und dass die Schnittfläche unter

dem Winkel φ die Länge LS hat.

Abbildung 2-3: Freigeschnittenes Schütt-

gutelement aus Abbil-

dung 2-2b, mit eingezeich-

netem Winkel φ sowie der

gesuchten Schub- und

Normalspannung in der

Schnittebene, τφ bzw. σφ.

7

Page 28: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Die Gleichgewichtsbedingungen für die Kräfte in X- und Y -Richtung sind in den Gleichun-

gen 2-3 und 2-4 angeben.

Z-Richtung : 0 = σZLS cosφ− τφLS sinφ− σφLS cosφ (2-3)

X-Richtung : 0 = −σXLS sinφ− τφLS cosφ+ σφLS sinφ (2-4)

Nach dem Kürzen von LS und Umformung folgt für die Schub- und Normalspannung in der

Schnittebene das folgende Gleichungssystem mit zwei Gleichungen und zwei Unbekann-

ten:

σφ =τφ cosφ+ σX sinφ

sinφund (2-5)

τφ =(σZ − σφ) cosφ

sinφ. (2-6)

Setzt man die Gleichungen 2-5 und 2-6 unter Eliminierung von τφ ineinander ein, ergibt sich

Gleichung 2-7.

σφ = σX +(σZ − σφ)(cosφ)2

(sinφ)2(2-7)

Nach Umstellen von Gleichung 2-7 und über den Zwischenschritt

σφ

[1 +

(cosφ

sinφ

)2]

= σX + σZ

(cosφ

sinφ

)2

(2-8)

folgt

σφ[

(sinφ)2 + (cosφ)2

︸ ︷︷ ︸=1

]= σX(sinφ)2 + σZ(cosφ)2 (2-9)

und die Gleichung vereinfacht sich damit zu

σφ = σX(sinφ)2 + σZ(cosφ)2. (2-10)

Die quadrierten Winkelfunktionen in Gleichung 2-10 lassen sich schreiben als

(sinφ)2 =1

2

[1− cos(2φ)

]sowie (2-11)

(cosφ)2 =1

2

[1 + cos(2φ)

](2-12)

und werden in Gleichung 2-10 eingesetzt, womit sich für σφ nach Vereinfachung

σφ =σZ + σX

2+σZ − σX

2cos(2φ) (2-13)

ergibt. Gleichung 2-13 beschreibt den analytischen Zusammenhang zwischen den Normal-

spannungen σZ und σX und der Normalspannung in der Schnittebene σφ. Durch Einsetzen

8

Page 29: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.1 Schüttgutcharakterisierung

der Gleichung 2-13 in Gleichung 2-6 kann die daraus resultierende Funktion für die Schub-

spannung in der Schnittebene τφ, aufgelöst werden (Gleichung 2-14).

τφ =σZ cosφ− σZ(cosφ)3 − σX(sinφ)2 cosφ

sinφ(2-14)

Aus Gleichung 2-14 folgt nach Vereinfachung Gleichung 2-15.

τφ = (σZ − σX) cosφ sinφ (2-15)

Unter erneuter Ausnutzung eines Zusammenhangs zwischen den Winkelfunktionen Sinus

und Cosinus (cosφ sinφ = 12

sin(2φ)) ergibt sich Gleichung 2-16 für den Zusammenhang

zwischen den Normalspannungen σZ und σX sowie der Schubspannung in der Schnittebe-

ne τφ.

τφ =σZ − σX

2sin (2φ) (2-16)

Die Gleichungen 2-13 und 2-16 basieren auf der Annahme, dass auf den Flächen, auf

denen die Normalspannungen σZ und σX angreifen, keine Schubspannungen wirken. Dass

dies so ist, lässt sich durch eine andere Herleitungweise zeigen ([Sch-14, S. 21], [Ned-92,

S. 10-13]).

Berechnet man die Normalspannung σφ und Schubspannungen τφ für alle Winkel von 0◦

bis 180◦ und trägt τφ über σφ auf, dann ergibt sich ein Kreis (vgl. Abbildung 2-4), welcher

in der Kontinuumsmechanik als Mohr’scher Spannungskreis bezeichnet wird. Das Werte-

paar aus Normal- und Schubspannung in einer um einen beliebigen Winkel φ geneigten

Schnittfläche lässt sich im Mohr’schen Spannungskreis durch Antragen von 2φ direkt ab-

lesen. Beispielsweise findet man die größte Schubspannung in einer ausgehend von den

Hauptspannungsrichtungen (τ = 0) um φτ,max = 45◦ (90◦ im Mohr’schen Spannungskreis)

geneigten Ebene.

Der Mohr’sche Spannungskreis ist eine wichtige Grundlage für die Mohr-Coulomb’sche

Versagensvorhersage, welche ein ideales Coulomb’sches Material voraussetzt. Ein ideales

Coulomb’sches Material stellt eine Sonderform der starr-plastischen Materialmodelle dar

[Ned-92, S. 23]. Das Schüttgut wird zwar als Kontinuum betrachtet, jedoch ist seine elastische

Verformbarkeit nur sehr gering [McG-05, S. 53-54]. Statt sich unter Belastung elastisch zu

verformen, beginnt das Schüttgut in einer Ebene abzugleiten, sodass sich zwei Blöcke

bilden. Das Coulomb’sche Versagenskriterium, auch Fließgrenze genannt, beschreibt diesen

Effekt und ist in Gleichung 2-17.

τ = µσ + cc (2-17)

9

Page 30: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Abbildung 2-4: Mohr’scher Spannungs-

kreis mit eingezeichneten

Hauptspannungen und

der Ebene der maximalen

Schubspannung.

τ und σ bezeichnen Schub- bzw. Normalspannung, µ wird als innerer Reibungskoeffizi-

ent des Schüttguts bezeichnet und cc wird Kohäsion (englisch cohesion) genannt. Die

beiden zuletzt genannten Parameter sind schüttgutspezifisch. Kohäsion bezeichnet hier

die Fähigkeit eines Schüttguts, Schubspannung ohne Vorliegen einer Normalspannung zu

übertragen.

Trägt man die Fließgrenze nach Mohr-Coulomb zusammen mit dem Mohr’schen Spannungs-

kreis in ein Diagramm ein, dann ergeben sich drei Möglichkeiten bezüglich ihrer Interaktion

[Ned-92, S. 26 f.] (vgl. Abbildung 2-5).

Abbildung 2-5: Fließgrenze nach Mohr-

Coulomb und Mohr’sche

Spannungskreise aus der

gleichen Belastungsart mit

höheren Spannungen von

I nach III (Abbildung nach

[Sch-14, S. 55]).

(Fall I) Der Mohr’sche Spannungskreis liegt vollständig unterhalb der Fließgrenze. Daraus

folgt, dass die Schubspannung τφ,I des durch den Mohr’schen Spannungskreis be-

schriebenen Spannungszustandes an keiner Stelle die Fließgrenze überschreitet

(τφ,I < µσ + cc) und sich das Schüttgut in einem stabilen Zustand befindet.

10

Page 31: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.1 Schüttgutcharakterisierung

(Fall II) Der Mohr’sche Spannungskreis tangiert die Fließgrenze; das heißt in genau einer

Ebene des Schüttguts gilt τφ,II = µσ+ cc. In der betreffenden Ebene befindet sich das

Schüttgut im Grenzzustand.

(Fall III) Wird die Fließgrenze überschritten, beginnt das Schüttgut zu fließen. Der hier mit III

bezeichnete Zustand ist bei der Anwendung des Mohr-Coulomb’schen Versagenskrite-

riums ausgeschlossen, da das Schüttgut bereits beim Überschreiten des Kriteriums

aus II zu fließen beginnt und keine höheren Beanspruchungen ertragen kann.

Die praktische Bedeutung für die Beschreibung des Böschungswinkels bei kohäsionslosen

bis leicht kohäsiven Schüttgütern (cc ≈ 0) ist die Entstehung einer Gleitebene, wenn die

schüttgutspezifische Fließgrenze überschritten wird. Der Winkel φ dieser Gleitebene ge-

genüber der Horizontalen kann für Schüttgüter unter dem Einfluss der Schwerkraft nach

Gleichung 2-18 aus dem inneren Reibungskoeffizienten µ aus Gleichung 2-17 abgeschätzt

werden. Erfüllt ein Schüttgut die Annahmen eines idealen Coulomb’schen Materials, dann

ist der Winkel φ aus Gleichung 2-18 gleichbedeutend mit dem Böschungswinkel. [Ned-92,

S. 25]

φ = arctanµ (2-18)

2.1.3.2 Messung und praktische Relevanz

Es existieren nur wenige allgemeingültige Messverfahren für den Böschungswinkel [Sta-09,

S. 28]. Mehrere internationale Normen beschreiben Messverfahren für den Böschungswin-

kel, sind jedoch nur für bestimmte Materialien gültig: ISO 902 für Aluminiumoxid [KSK-76],

ISO 4324 für Tenside [Deu-83] oder die EN 12047 [Deu-96] für Düngemittel. Die meisten die-

ser Richtlinien schreiben die geometrischen Abmessungen für Versuchsstände vor. Dadurch

ergeben sich in der Praxis häufig Probleme, wenn der Böschungswinkel von Schüttgütern mit

einer mittleren Partikelgröße von mehreren Millimetern oder Zentimetern gemessen werden

soll. Die vorgegebenen Trichteröffnungen sind bei der ISO 4324 und der EN 12047 beispiels-

weise bei 10 mm bzw. 25 mm im Durchmesser und für Messungen mit Partikelgrößen über

5 mm unbrauchbar [Rac-17a]. Die FEM-Richtlinie 2582 [Fed-91] verfolgt einen flexibleren

Ansatz, indem sie bezüglich des Versuchsstands und dessen Abmessungen keine Vorgaben

macht. Sie legt jedoch fest, wie die Haufwerke zu vermessen sind und gibt vor, dass der

Basisdurchmesser der kegelförmigen Haufwerke mindestens 20 mal der durchschnittlichen

Partikelgröße des Schüttguts entsprechen muss. Die Versuchsvorrichtungen können also für

Schüttgüter mit größeren Partikelgrößen angepasst werden.

11

Page 32: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Um gezielt ein Haufwerk zu erzeugen, welches sich für die Messung des Böschungswinkels

eignet, gibt es verschiedene Möglichkeiten. Drei gängige Methoden sind in Abbildung 2-6

abgebildet. Abbildung 2-6a zeigt einen Trichter, durch den das Schüttgut auf eine horizontale

Bodenplatte ausläuft; bei leicht kohäsiven Schüttgütern kommt zusätzlich ein Rührwerk zum

Einsatz, um den kontinuierlichen Ausfluss von Material zu gewährleisten. In Abbildung 2-

6b ist eine ähnliche Methode gezeigt, die einen zylindrischen Behälter mit einer mittigen,

runden Öffnung im Boden statt eines Trichters verwendet. Der Böschungswinkel kann an

dem unter dem Behälter entstandenen Haufwerk gemessen werden, wird bei manchen

Messverfahren aber auch an dem im Behälter verbliebenen Schüttgut bestimmt und heißt

sodann Auslaufwinkel [Fed-97] (englisch: drained angle of repose). Die Abbildung 2-6c zeigt

die Generierung eines kegelförmigen Schüttgut-Haufwerks mittels eines oben und unten

offenen Zylinders. Dieser wird auf einer ebenen Bodenplatte abgestellt, mit Schüttgut gefüllt

und anschließend senkrecht angehoben. Das Haufwerk bildet sich als Folge des Verlusts

der seitlichen Abstützung durch den Behälter.

Abbildung 2-6: Gängige Methoden zur Erzeugung eines kegelförmigen Schüttgut-Haufwerks (Abbildung aus

[Rac-17a]).

Beim Vergleichen von Böschungswinkeln muss beachtet werden, dass seine Werte von

den verwendeten Messverfahren abhängen [McG-05, S. 50]. Des Weiteren ist mit einer

großen Streuung der Messwerte zu rechnen, welche bis zu ±5◦ betragen kann [Fed-91]

und vor allem bei kohäsiven Schüttgütern sehr stark ausgeprägt ist [Sch-14, S. 184]. In der

Literatur wird explizit darauf hingewiesen, dass der Böschungswinkel nur für die Materialien

mit dem inneren Reibungskoeffizienten korreliert (vgl. Gleichung 2-18), die dem theoretisch-

mechanischen Verhalten eines idealen Coulomb’schen Materials gerecht werden ([Fed-91],

[Ned-92, S. 37-38]). Einige Phänomene, wie beispielsweise Segregation von Schüttgütern

mit einer sehr breiten Partikelgrößenverteilung, können die Messung des Schüttwinkels

verfälschen [Ned-92, S. 37-38].

Trotz der vielen Fallstricke, die bei der Böschungswinkel-Messung zu beachten sind, ist er

eine oft gemessene und berichtete Größe und kann z. B. eingesetzt werden, um Schüttgüter

12

Page 33: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.2 Diskrete-Elemente-Methode

untereinander zu vergleichen oder deren Fließfähigkeit grob abzuschätzen [McG-05, S. 52].

Seine weite Verbreitung begründet sich auch mit den weitestgehend einfach umzusetzenden

Messverfahren und dem geringen Messaufwand.

2.2 Diskrete-Elemente-Methode

Die Diskrete-Elemente-Methode ist eine numerische Berechnungsmethode, die unter ande-

rem zur Modellierung und Simulation von Schüttgütern eingesetzt wird. Diese werden dabei

als Systeme von Einzelpartikeln modelliert und die Bewegungsgleichungen und Kontaktbe-

dingungen für jeden Partikel aufgelöst.

Obwohl die Ursprünge der Diskrete-Elemente-Methode in der Molekulardynamik der 1950er

Jahre liegen, werden die Arbeiten von Cundall und Strack aus den 1970er Jahren – [Cun-

71] und insbesondere [Cun-79] – als die ersten vollwertigen Diskrete-Elemente-Methode-

Simulationen angesehen. Dank des stetigen Anstiegs der Verfügbarkeit von computerbasier-

ter Berechnungsleistung und dem Aufkommen von ersten kommerziellen Diskrete-Elemente-

Methode-Codes erfuhr die Diskrete-Elemente-Methode in den 1990er Jahren einen starken

Zuwachs an Anwendern. Ab der Mitte der 1990er Jahre setzte sich die Diskrete-Elemente-

Methode schließlich als Berechnungsverfahren in der Partikeltechnologie durch. [Tho-15,

S. 2-6]

Die theoretischen Grundlagen der Diskrete-Elemente-Methode werden in diesem Abschnitt

für die Modellierung mittels Kugeln beschrieben, welche die am häufigsten eingesetzte

geometrische Form darstellen. Andere Formen sind z. B. Polyeder oder superquadrics ([Mun-

12, S. 23 ff.], [Mat-14, S. 335 ff.]), welche reale Partikelformen präziser abbilden können.

Durch ihre Verwendung steigt der Berechnungsaufwand jedoch massiv an, da für die Kontakt-

Identifizierung mehrere Bedingungen geprüft werden müssen (Polyeder) oder hochgradig

nichtlineare Gleichungen vorliegen (superquadrics).

Wie eingangs beschrieben, umfasst der Begriff diskretes Element verschiedene Objektarten.

Im dreidimensionalen Fall betrachtet man mittels der Diskrete-Elemente-Methode die Inter-

aktion zwischen massebehafteten Kugeln mit unterschiedlichen Durchmessern. Geometrien

von Versuchsständen oder Schüttgut-Förderanlagen werden bei der Diskrete-Elemente-

Methode als Wände bezeichnet und können aus Computer Aided Design-Modellen (CAD;

meist im STL-Format) in die Diskrete-Elemente-Methode-Modelle importiert werden. Es wird

später gezeigt, dass der Kontakt zwischen zwei diskreten Elementen auf einen Kontaktpunkt

13

Page 34: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

reduziert wird, sodass Wände im Allgemeinen wie ortsfeste Partikel behandelt werden

können.

In Anlehnung an den Einsatz der Diskrete-Elemente-Methode in der Partikel- und Schüttgut-

technologie werden die diskreten Elemente bzw. Kugeln im Folgenden als Partikel bezeichnet.

Die numerische Berechnung von Diskrete-Elemente-Methode-Modellen gliedert sich nach

Cundall und Strack [Cun-79] in drei Schritte. Dies sind die

1. Kontaktberechnung zwischen Partikeln, das

2. Integrieren der Bewegungsgleichungen sowie der

3. Übergang zum nächsten Zeitschritt.

2.2.1 Kontaktberechnung

Die Kontaktberechnung bei der Diskrete-Elemente-Methode gliedert sich in zwei Teilaufga-

ben. Diese sind die Kontaktfindung und die Berechnung der Kontaktkräfte gemäß einem

Kontaktmodell.

2.2.1.1 Kontaktfindung

Vor der eigentlichen Berechnung der in den Kontakten auftretenden Kräfte müssen zunächst

alle miteinander in Kontakt stehenden Partikel gesucht werden. Die Kontaktfindung gestaltet

sich beim Einsatz von Kugeln mathematisch sehr einfach. Ob sich zwei Kugeln, i und

j, berühren oder überlappen lässt sich über Gleichung 2-19 prüfen. Darin bezeichnet r

den jeweiligen Kugelradius und ~p den Ortsvektor zum jeweiligen Kugelmittelpunkt. δn ist

die Überlappung und falls die Bedingung aus Gleichung 2-20 erfüllt ist, überlappen bzw.

berühren sich die Kugeln i und j. Ein Partikel kann gleichzeitig mit mehreren anderen

Partikeln in Kontakt stehen.

δn = |~pi − ~pj| − (ri + rj) (2-19)

δn ≤ 0 (2-20)

Trotz der mathematisch einfachen Beschreibung von in Kontakt stehenden Partikeln ist

die Kontaktfindung aus numerischer Sicht der bei Weitem aufwändigste Teil der Kontaktbe-

rechnung. In einem Diskrete-Elemente-Methode-Modell mit n Partikeln steigt der Aufwand zur

Kontaktfindung nach der Gauß’schen Summenformel in Gleichung 2-21.

Q =n2 − n

2(2-21)

14

Page 35: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.2 Diskrete-Elemente-Methode

Bei n = 10 000 Partikeln müssten die Gleichung 2-19 und die Bedingung in Gleichung 2-20

fast 50 Millionen mal berechnet bzw. geprüft werden.

Um den Kontaktfindungsprozess zu beschleunigen, ist die Kontaktfindung in Diskrete-Ele-

mente-Methode-Codes meist stark parallelisiert. Das gängigste Parallelisierungsverfahren

ist als Domain Decomposition bekannt [Mun-12, S. 247]. Bei diesem Verfahren wird der

physikalische Simulationsraum in Zellen aufgeteilt, welchen die darin enthaltenen Partikel

zugewiesen werden. Die Aufgabe der Kontaktfindung in einer Zelle wird je einem Prozessor

zugewiesen, wobei in den letzten Jahren der Einsatz von Grafikprozessoren zugenommen

hat [Mun-12, S. 261]. Bei Domain Decomposition muss außerdem beachtet werden, dass

Partikel sich nicht immer in derselben Zelle aufhalten, sondern durch ihre Bewegung im

Raum Zellengrenzen überschreiten können.

2.2.1.2 Hertz-Mindlin-Kontaktmodell

Nachdem alle in Kontakt stehenden Kugeln gefunden wurden, werden die daraus resultie-

renden Kräfte berechnet, welche maßgeblich von der Wahl des Kontaktmodells abhängen.

Das Hertz-Mindlin-Kontaktmodell [Her-82; Min-53] ist das für Kugeln am häufigsten einge-

setzte, nichtlineare Kontaktmodell in der Schüttgut-Simulation mittels Diskrete-Elemente-

Methode. Mit Bezug zur Kontaktebene im Kontaktpunkt werden die Kontaktkräfte zwischen

zwei Partikeln in einen normalen Anteil Fn und einen tangentialen Anteil Ft aufgeteilt. Wie

in Abbildung 2-7 zu sehen, wird in beiden Richtungen mit einer Kontaktsteifigkeit (kn, kt)

und einer Kontaktdämpfung (cn, ct) gerechnet. Das Hertz-Mindlin-Kontaktmodell wurde von

Di Renzo et al. [DiR-04] auf Überlappungen umformuliert und so für moderne Diskrete-

Elemente-Methode-Codes aufbereitet.

Abbildung 2-7: Schematische Darstellung

des Hertz-Mindlin-Kontakt-

modells (Abbildung nach

[Rac-17e]).

15

Page 36: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Neben der oben genannten Überlappung in Kontaktnormalenrichtung (δn) wird beim Hertz-

Mindlin-Kontaktmodell auch eine Überlappung in der Kontaktebene (δt) definiert [DiR-04].

Diese tangentiale Überlappung berechnet sich aus dem Produkt der tangentialen Relativge-

schwindigkeit zwischen den Kugeln (vtan) und dem Simulationszeitschritt tS . Da zwei Kugeln

mit einer genau gegengleichen Eigenrotation schlupffrei aneinander abrollen würden anstatt

zu gleiten, muss die tangentiale Überlappung um die Eigenrotation der Kugeln korrigiert

werden.

Die normale und tangentiale Überlappung, δn bzw. δt, und die normale und tangentiale

Relativgeschwindigkeit im Kontaktpunkt, vn bzw. vtan, sind die Grundlage für die Berechnung

der Kontaktkraft F in Gleichung 2-22. Gleichung 2-23 für die Normalkraft und Gleichung 2-24

für die Tangentialkraft enthalten jeweils zwei Terme, von denen der erste die entsprechende

Überlappung sowie die Kontaktsteifigkeit enthält und der zweite die Kontaktdämpfung als

auch die Relativgeschwindigkeit am Kontaktpunkt einbezieht. Der maximale Wert für Ft ist

durch den Coulomb’schen Reibungskoeffizienten zwischen beiden Partikeln (µR) und das

Coulomb’sche Reibungsgesetz beschränkt und wird beim Überschreiten des Maximums aus

Gleichung 2-24 auf Ft = µRFn gesetzt. [CFD-17a]

F = Fn + Ft (2-22)

Fn = knδn − cnvn (2-23)

Ft = ktδt − ctvtan wobei gilt: Ft ≤ µRFn (2-24)

Die Kontaktsteifigkeiten und Kontaktdämpfungen berechnen sich nach den Gleichungen 2-25

bis 2-35 [DiR-05; CFD-17a] und für ihre Berechnung ist außer den Kugelradien, ri und rj,

auch die Kenntnis der folgenden materialbezogenen Größen erforderlich:

• Ei, Ej : Elastizitätsmoduln der beiden Partikel,

• νi, νj : Querkontraktionszahlen der beiden Partikel,

• mi,mj : Masse der beiden Partikel; diese wird auch oft durch das Kugelvolumen und

die Dichte ausgedrückt,

• e: Stoßzahl zwischen den beiden Partikeln,

• µR: Coulomb’scher Reibungskoeffizent zwischen den beiden Partikeln.

Für die Kontaktsteifigkeit und Kontaktdämpfung in Normalenrichtung in Abhängigkeit von

der Überlappung δn gelten die Gleichungen 2-25 bis 2-27.

16

Page 37: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.2 Diskrete-Elemente-Methode

kn =4

3E ′√r′δn (2-25)

cn = −2

√5

6βH√Snm′ mit cn ≥ 0 (2-26)

Sn = 2E ′√r′δn (2-27)

Die Berechnung der Hilfsgröße βH und der reduzierten Größen r′, E ′ und m′ ist in den

Gleichungen 2-28 bis 2-31 beschrieben.

βH =ln e√

(ln e)2 + π2(2-28)

E ′ =

(1− ν2

i

Ei+

1− ν2j

Ej

)−1

(2-29)

r′ =

(1

ri+

1

rj

)−1

(2-30)

m′ =

(1

mi

+1

mj

)−1

(2-31)

Die Tangentialsteifigkeit und Tangentialdämpfung in Abhängigkeit von der Überlappung δn

folgen aus den Gleichungen 2-32 bis 2-34.

kt = 8G′√r′δn (2-32)

ct = −2

√5

6βH√Stm′ mit ct ≥ 0 (2-33)

St = 8G′√r′δn (2-34)

Analog zur Berechnung der in Normalenrichtung wirkenden Terme gibt es hier den re-

duzierten Schubmodul G′, welcher nach Gleichung 2-35 aus den Elastizitätsmoduln und

Querkontraktionszahlen beider Partikel unter der Annahme isotropen Materialverhaltens

berechnet wird.

G′ =

[2(2− νi)(1 + νi)

Ei+

2(2− νj)(1 + νj)

Ej

]−1

(2-35)

17

Page 38: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Beim exzentrischen Stoß von zwei reibungsbehafteten Kugeln entsteht durch die Tangential-

kraft Ft ein richtungsabhängiges Drehmoment, welches sich für die in Kontakt stehenden

Kugeln i und j nach den Gleichungen 2-36 und 2-37 ergibt.

Mi = riFt (2-36)

Mj = rjFt (2-37)

2.2.1.3 Erweiterung des Hertz-Mindlin-Kontaktmodells

Das Hertz-Mindlin-Kontaktmodell kann um zusätzliche Kraft- oder Momentenmodelle erwei-

tert werden. Zwei davon sind Rollreibungs- oder Kohäsionsmodelle. Rollreibungsmodelle

führen ein Drehmoment ein, das dem Abrollen eines Partikels entgegenwirkt. Kohäsions-

modelle werden als zusätzliche Kräfte zwischen sich berührenden Partikeln definiert und

kommen beispielsweise für die Modellierung von aus der Oberflächenspannung resultieren-

den Anziehungskräften in feuchten Schüttgütern in Frage.

Sowohl für Kohäsion als auch für die die Rollreibung existieren unterschiedliche Modellie-

rungsansätze. Oft wird das JKR-Kohäsionsmodell von Johnson et al. [Joh-71] eingesetzt. Im

Bezug auf zwei sich berührende Partikel wird bei JKR die Kohäsionskraft aus der Größe der

Kontaktfläche nach Hertz und einem konstanten Wert für die Oberflächenenergie berechnet.

Diese Kraft wirkt wie eine gegenseitige Anziehungskraft, die nur während der Berührung der

Partikel auftritt.

Für die Diskrete-Elemente-Methode-Modelle in dieser Dissertation wurde mit einem Rollrei-

bungsmodell gearbeitet, welches auf einem elastisch-plastischen Feder-Dämpfer-System

basiert [Ai-11]. Auf die aneinander abrollenden Kugeln wird ein zusätzliches DrehmomentMr

addiert, welches sich aus einem elastischen Anteil Mkr und einem Anteil viskoser Dämpfung

Mdr zusammensetzt (vgl. Gleichung 2-38). Bei der Implementierung der Diskrete-Elemente-

Methode-Software LIGGGHTS wird im Rollreibungsmodell EPSD2 der Dämpfungsanteil

nicht berücksichtigt [CFD-17b].

Mr = Mkr +Md

r bei EPSD2: Mdr = 0 (2-38)

Der elastische Anteil Mkr wird nach den Gleichungen 2-39 bis 2-41 berechnet. Darin steht

kt für die Kontakt-Tangentialsteifigkeit (vgl. Gleichung 2-32), µr für den Rollreibungskoeffizi-

enten und r′ für den reduzierten Kontaktradius (vgl. Gleichung 2-30). Das Moment Mkr folgt

18

Page 39: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.2 Diskrete-Elemente-Methode

aus der inkrementellen, relativen Rotation zwischen beiden Partikeln (∆θr), und ändert sich

demnach vom Zeitschritt t zum Zeitschritt t+ ∆t um ∆Mkr .

kr = ktr′2 (2-39)

∆Mkr = −kr∆θr (2-40)

Mkr,t+∆t = Mk

r,t + ∆Mkr (2-41)

Wie die Coulumb’sche Reibung in Gleichung 2-24, ist auch der absolute Maximalwert der

Rollreibung durch die Kontaktnormalkraft Fn und den (Roll-)Reibungskoeffizienten begrenzt;

das entsprechende Kriterium ist in Gleichung 2-42 formuliert.

|Mkr,t+∆t| ≤ µrr

′Fn (2-42)

2.2.2 Integration der Bewegungsgleichungen

Mit Kenntnis der Kontaktkräfte können die auf jedes Partikel wirkenden translatorischen

Beschleunigungen a und rotatorischen Beschleunigungen α berechnet werden. Gleichzeitig

mit den Kontaktkräften können auch andere Kräfte und Momente, z. B. aus Gravitation,

Kohäsion oder Rollreibung, auf die Partikel wirken.

Die Bewegungsgleichungen eines Partikels i mit der konstanten Masse mi und dem kon-

stanten Trägheitsmoment Ji ergeben sich aus dem Zweiten Newton’schen Axiom. Unter

Berücksichtigung der Summe aller am Partikel i angreifenden Kräfte (∑Fi) und Momente

(∑Mi) ergeben sich die Translations- und Winkelbeschleunigung zum Zeitpunkt t, a(t) bzw.

α(t), nach den Gleichungen 2-43 und 2-44.

a(t) =

∑Fi(t)

mi

(2-43)

α(t) =

∑Mi(t)

Ji(2-44)

Für die numerische Integration dieser Bewegungsgleichungen sind implizite Verfahren un-

geeignet [Mat-14, S. 111]. Aufgrund der hohen Partikelanzahl und der großen Häufigkeit

von Partikelkontakten in dichten Partikelströmen werden fast ausschließlich explizite Inte-

grationsverfahren eingesetzt. Ein weit verbreiteter Integrator ist der sogenannte Velocity

Verlet-Algorithmus, welcher unter der Annahme von ortsunabhängiger Beschleunigung gute

Genauigkeit bei vertretbarem Berechnungsaufwand bietet. Das Integrationsschema ist in

den Gleichungen 2-45 bis 2-47 beschrieben [Mat-14, S. 83-84]. Die Geschwindigkeit im

Schwerpunkt, vSP , und die Position p sind für jeden Partikel zu jedem vollen Zeitschritt ti

19

Page 40: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

verfügbar und werden über einen Zwischenschritt bei der halben Simulationszeitschrittgröße

ts berechnet.

vSP

(ti +

1

2ts

)= vSP (ti) +

1

2ts a(ti) Zwischenschritt (2-45)

p(ti+1) = p(ti) + ts vSP

(ti +

1

2ts

)(2-46)

vSP (ti+1) = vSP

(ti +

1

2ts

)+

1

2ts a(ti+1) (2-47)

2.2.3 Simulationszeitschritt

Nachdem alle neuen Partikelpositionen und -geschwindigkeiten berechnet sind, werden

diese und andere Daten (zwischen-)gespeichert und die Simulationszeit um einen Simulati-

onszeitschritt ts inkrementiert.

Der Simulationszeitschritt ist eine kritische Größe bei Diskrete-Elemente-Methode-Simulatio-

nen. Falls er zu groß gewählt wird, wird die Simulation instabil und dies führt dazu, dass sich

die Partikel nicht gemäß den modellierten physikalischen Gesetzen verhalten [Mat-14, S. 76].

Der Grund dafür liegt in Störungswellen, welche auch von Partikeln ausgehen können, die

sich in einem großen räumlichen Abstand zum beeinflussten Partikel befinden. Störungswel-

len breiten sich in Diskrete-Elemente-Methode-Simulationen mit der Schallgeschwindigkeit

der (Schüttgut-)Partikel aus. Zur Veranschaulichung stelle man sich ein Kugelstoßpendel mit

mehreren Kugeln vor, bei dem eine Kugel am Rand ausgelenkt und losgelassen wird. Sobald

diese auf ihre Nachbarkugel trifft, dauert es nur Bruchteile von Sekunden, bis die Kugel am

anderen Ende des Kugelstoßpendels angestoßen wird. Obwohl sich die beiden äußeren

Kugeln in einiger Distanz zueinander befinden, erfolgt die Impulsübertragung innerhalb eines

sehr kurzen Zeitintervalls.

Um stabile Diskrete-Elemente-Methode-Modelle mit physikalisch sinnvollen Ergebnissen zu

berechnen, muss der Simulationszeitschritt ts klein genug gewählt werden, um die Übertra-

gungsdistanz von Störungswellen während eines Zeitschritts auf in Kontakt stehende Partikel

zu begrenzen [Tho-15, S. 16]. Zur Abschätzung einer geeigneten Simulationszeitschrittgröße

wird bei der Diskrete-Elemente-Methode der kritische Rayleigh-Zeitschritt tR herangezogen.

Er wird durch die Gleichung 2-48 beschrieben und hängt für ein linear-elastisches Material

vom kleinsten Partikelradius rmin, der Festkörperdichte ρP , dem Schubmodul G, sowie der

Querkontraktionszahl ν, ab [Tho-15, S. 17].

tR =πrmin

√ρPG

0,8766 + 0,1631ν(2-48)

20

Page 41: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.3 Kalibrierung von materialbezogenen Diskrete-Elemente-Parametern

Da ein Partikel mit mehreren anderen Partikeln gleichzeitig in Kontakt stehen kann, wird

der Rayleigh-Zeitschritt bei Diskrete-Elemente-Methode-Simulationen nie direkt als Simu-

lationszeitschritt übernommen. Üblicherweise beträgt der Simulationszeitschritt ts 20 % bis

40 % des Rayleigh-Zeitschritts. Die Abschätzung des optimalen Anteils ist empirisch [Tho-15,

S. 16] und hängt auch von der modellierten Anwendung ab.

Für Stahlkugeln mit einem Radius von 5 mm und den Materialeigenschaften ρ = 7900 kg m−3,

E = 2,1 · 105 N mm−2 und ν = 0,3 ergibt sich nach Umrechnung des Elastizitätsmoduls in

den Schubmodul ein Rayleigh-Zeitschritt von tR,SK = 5,31 µs. Wählt man zur Festlegung

des Simulationszeitschrittes einen Anteil von 25 %, ergibt sich die Zeitschrittgröße nach

Gleichung 2-49.

ts,SK = 0,25 tR,SK = 1,33 µs (2-49)

Möchte man mit diesem Simulationszeitschritt eine Zeitspanne von nur einer Sekunde

simulieren, so müssen dazu circa 750 000 Zeitschritte berechnet werden. Für die reali-

tätsnahe Simulation von physikalischen Prozessen sind in der Schüttguttechnologie Zeit-

spannen von mehreren Dutzend Sekunden nicht selten, sodass in den entsprechenden

Diskrete-Elemente-Methode-Modellen mehrere Millionen Zeitschritte berechnet werden

müssen. Berücksichtigt man außerdem, dass zu jedem einzelnen Zeitschritt die Kontakte

zwischen mehreren zehn-, hunderttausend oder sogar Millionen von Einzelpartikeln aufge-

löst werden müssen, erhält man einen Eindruck vom hohen Berechnungsleistungsbedarf

der Diskrete-Elemente-Methode, der maßgeblich mit dem Rayleigh-Zeitschritt zusammen-

hängt.

2.3 Kalibrierung von materialbezogenen Diskrete-Elemente-Parametern

Dieses Unterkapitel 2.3 basiert teilweise auf dem Unterkapitel 3.2 des Abschlussberichts

zum Projekt DEM-Schüttgutdatenbank [Gün-17, S. 5-9], welches ebenfalls vom Autor dieser

Dissertation bearbeitet und verfasst wurde.

Die Notwendigkeit zur Kalibrierung von materialbezogenen Diskrete-Elemente-Methode-

Parametern (im Weiteren auch als Parameter bezeichnet) gründet auf zwei fundamentalen

Umständen der Diskrete-Elemente-Methode. Zum einen betrifft dies die Messung von

relevanten Materialkenngrößen und zum anderen die Einschränkungen, die aus dem hohen

Berechnungsaufwand erwachsen.

21

Page 42: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

2.3.1 Hintergrund zur Kalibrierung

Mittels der Diskrete-Elemente-Methode werden physikalische Vorgänge simuliert, bei denen

auf verschiedene Materialkenngrößen, beispielsweise aus der Mechanik, Bezug genommen

wird. Viele dieser Größen, z. B. die Dichte oder der Elastizitätsmodul, lassen sich durch

Messungen bestimmen, wobei die entsprechenden Versuche aufwändig und komplex sein

können [Coe-16]. Andere Größen, wie die Rollreibung, sind empirische Größen und haben

somit kein konkretes physikalisches Pendant, dem direkt messbare Materialkenngrößen zuge-

ordnet werden können. Es lassen sich also nicht alle makromechanisch beobachteten Effekte

auf mikromechanische Gesetzmäßigkeiten zurückführen.

Manche Materialkennwerte betreffen zudem direkt den Wert des maximalen Simulationszeit-

schritts. Wie in Unterabschnitt 2.2.3 beschrieben, spielt hierbei auch die Partikelgröße eine

Rolle. Die Modellierung von Partikelformen und Partikelgrößenverteilungen ist zwar nicht

direkt mit Materialkennwerten verbunden, jedoch für die Modellierung geometrischer Effekte

in Schüttgütern essentiell. Besonders Schüttgüter mit einem hohen Feinanteil führen bei

maßstäblicher Modellierung zu extrem kleinen Simulationszeitschrittgrößen, die eine hohe

Anzahl an Berechnungsschritten nach sich ziehen.

Ein weiterer Punkt, der den Berechnungsaufwand betrifft, ist, dass gerade in der prakti-

schen Anwendung der Diskrete-Elemente-Methode versucht wird schnell zu berechnende

Diskrete-Elemente-Methode-Modelle zu erstellen, die nicht erst tage- oder wochenlang auf

Hochleistungsrechnern simuliert werden müssen. Die wichtigsten Einflussgrößen hierauf

sind die Partikelgröße, Partikelform und die den Rayleigh-Zeitschritt betreffenden Parameter.

Die Maßnahmen zur Verringerung des Berechungsaufwands zielen vorrangig auf die Re-

duzierung der Partikelanzahl und die Erhöhung des Rayleigh-Zeitschritts ab. Konkret wird

beispielsweise der Elastizitätsmodul unter der Prämisse verringert, dass sich die interessie-

renden Ergebnisse dadurch nicht signifikant ändern [Bie-09; Lom-14]. Ein anderer Ansatz ist

es den Feinanteil in der Partikelgrößenverteilung abzuschneiden [Cur-09], um so mit größe-

ren Partikeln rechnen zu können; dieser Ansatz ist in der Literatur als coarse graining bekannt

[Sak-14; Nas-15] und basiert auf der Idee, eine Vielzahl von Einzelpartikeln durch weniger,

aber größere, Partikel zusammenzufassen. Die Verschiebung einer Partikelgrößenverteilung

hin zu größeren Partikeln fällt in die dieselbe Kategorie. Eine andere Idee ist die Ersetzung

von komplexen Partikelgeometrien, die durch numerisch aufwändige Geometrien diskretisiert

werden müssten, durch einfachere geometrische Formen, wie beispielsweise Kugeln oder

Zylinder. Hierbei wird gleichzeitig der Wert der Rollreibung höher gesetzt [Wen-12; Rac-17e],

um geometrische Effekte aus asphärischen Partikelformen anzunähern. Insbesondere bei

22

Page 43: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.3 Kalibrierung von materialbezogenen Diskrete-Elemente-Parametern

Unterschieden zwischen den physikalischen und den modellierten Partikelformen ist die

Messung von mikromechanischen Kenngrößen, wie eingangs dieses Unterkapitels erwähnt,

nur noch bedingt nützlich [Bar-13].

Unabhängig davon, ob Materialkenngrößen messtechnisch nicht erfasst werden können oder

Materialkenngrößen oder die Partikelgeometrie gezielt verändert werden, gehen die oben be-

schriebenen Ansätze damit einher, dass die physikalische Bedeutung der Diskrete-Elemente-

Methode-Parameter verfälscht wird. Um jedoch weiterhin qualitativ und quantitativ verlässli-

che Resultate zu erhalten, werden Laborexperimente oder Prozessversuche mit Schüttgut

durchgeführt und mittels der Diskrete-Elemente-Methode modelliert. Die experimentellen

Ergebnisse werden sodann als Zielgrößen für das Diskrete-Elemente-Methode-Modell ange-

sehen [Gri-10; Mar-15] und die Diskrete-Elemente-Methode-Parameter so lange variiert, bis

die Ergebnisse aus Versuch und Simulation nur noch minimale Abweichungen aufweisen.

Es existieren jedoch meist mehrere Parametersätze, die die Zielgrößen korrekt beschreiben

[Coe-16], weshalb ein Parametersatz unter Umständen aus einer Vielfalt an Lösungsmög-

lichkeiten ausgewählt werden muss. Die so gestaltete Bestimmung der Diskrete-Elemente-

Methode-Parameter wird als Kalibrierung bezeichnet und ist im mathematischen Sinn ein

Ausgleichsproblem.

Der Zeitaufwand für die Kalibrierung ist aufgrund der zum Teil sehr langen Berechnungs-

dauern von Diskrete-Elemente-Methode-Modellen maßgeblich von der Anzahl der dazu

benötigten Berechnungsläufe abhängig. Je nach Erfahrung des durchführenden Anwenders

mit den für die Kalibrierung herangezogenen Zielgrößen ist die Kalibrierung ein unsicheres

Verfahren mit ungewissem Ausgang. Zur Kalibrierung selbst werden häufig die Partikeldichte,

der Elastizitätsmodul sowie die Reibungs- und Rollreibungskoeffizienten [Bha-10] zwischen

Partikel-Partikel sowie Partikel-Wand herangezogen. Oft eingesetzte Zielgrößen sind der

Böschungswinkel und die Auslaufzeit einer definierten Menge Schüttgut aus einem Behälter

[Coe-17] sowie die Schüttdichte.

2.3.2 Existierende Ansätze zur Kalibrierung

Sofern experimentelle Daten vorliegen und entsprechende Zielgrößen im Rahmen von

einem oder mehreren Diskrete-Elemente-Methode-Modellen definiert wurden, müssen die

Diskrete-Elemente-Methode-Parameter bestimmt werden. Es können drei verschiedene

Herangehensweisen an die Kalibrierung identifiziert werden: (I) unstrukturiert, (II) strukturiert

und (III) methodisch.

23

Page 44: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Beim unstrukturierten Ansatz versucht der Anwender direkt einen passenden Diskrete-Ele-

mente-Methode-Parametersatz zu treffen, der die Zielgrößen ausreichend genau abbildet.

Die Effekte der Diskrete-Elemente-Methode-Parameter auf die Zielgrößen und die Wechsel-

wirkungen der Diskrete-Elemente-Methode-Parameter untereinander sind aus Erfahrung be-

kannt oder werden während des Kalibrierungsprozesses vom Anwender beobachtet. Dieses

Vorgehen ist sehr weit verbreitet [Coe-09; Gri-09; Wan-10; Gri-11; Gon-11; Gon-12; Suh-16;

Coe-17] und für Kalibrierungsprobleme mit mehreren Diskrete-Elemente-Methode-Modellen

und Zielgrößen äußerst ineffizient, da viele Anwender während des Kalibrierungsprozesses

den quantitativen Einfluss der Parameter falsch einschätzen.

Das strukturierte Vorgehen zeichnet sich durch systematisch durchgeführte Parameterstudi-

en und Sensitivitätsanalysen aus (vgl. [Fak-07; Fra-13]). Für jeden interessierenden Diskrete-

Elemente-Methode-Parameter wird vom Anwender ein Intervall festgelegt, innerhalb des-

sen dieser Parameter auf mehreren Stufen (z. B. „hoch“, „mittel“, „niedrig“) untersucht wird.

Durch dieses Vorgehen kann der Verlauf der Zielgröße(n) über dem Eingangsparameter

aufgetragen werden und der Anwender kann erkennen, ob die Abhängigkeit beispielsweise

als linear oder exponentiell beschrieben werden kann. Bei Anwendung auf mehrere Diskrete-

Elemente-Methode-Parameter können günstige Startwerte für die Kalibrierung identifiziert

werden. Der Nachteil des strukturierten Vorgehens und der relativ guten Abbildung des

Kalibrierungsproblems ist die hohe Anzahl der für die Parameterstudien benötigten Be-

rechnungsläufe. Um beispielsweise drei Diskrete-Elemente-Methode-Parameter auf je fünf

Stufen zu untersuchen muss jede Zielgröße 15 (3 · 5) mal berechnet werden. Sollen zusätz-

lich Parameter-Wechselwirkungen und deren Auswirkungen auf die Zielgrößen betrachtet

werden sind bis zu 125 (53) Läufe nötig.

Strukturierte Kalibrierungsverfahren gehen fließend in methodische Kalibrierungsverfah-

ren über. Im Rahmen dieser Arbeit wird zur Unterscheidung deshalb der explizite Einsatz

von Methoden der statistischen Versuchsplanung als Voraussetzung für methodische Kali-

brierungsverfahren festgelegt. Zum Zeitpunkt der Entstehung dieser Arbeit existieren nur

wenige Studien, in denen methodische Verfahren zur Kalibrierung von Diskrete-Elemente-

Methode-Parametern beschrieben oder eingesetzt werden. Von Curry et al. [Cur-09], Favier

et al. [Fav-10] und Johnstone [Joh-10] werden sogenannte Screening-Versuchspläne be-

nutzt, um mit wenigen Berechnungsläufen die Parameter mit dem größten Einfluss auf die

Zielgrößen herauszufiltern. Diese Parameter werden bei der anschließenden Kalibrierung

variiert. Andere Gruppen verwenden orthogonale Felder bzw. Taguchi-Pläne [Han-11b]

oder Plackett-Burman-Pläne [Yoo-07]. Die so gewonnenen Daten werden eingesetzt, um

Parameter-Startwerte für die Kalibrierung zu erhalten, welche im weiteren Verlauf nach dem

24

Page 45: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.3 Kalibrierung von materialbezogenen Diskrete-Elemente-Parametern

unstrukturierten Vorgehen erfolgt, oder um Regressionsmodelle zu parametrisieren, damit

diese für die numerische Optimierung verwendet werden können [Yoo-07; Fav-10; Joh-10].

In beiden Fällen wird versucht, die quantitativen Zusammenhänge zwischen Eingangs- und

Ergebnisdaten abzubilden und z. B. mittels Interpolation die Parameter zu bestimmen, die zu

den gemessenen Ergebnisdaten führen.

Quist und Evertsson [Qui-15] beschreiben den Diskrete-Elemente-Methode-Kalibrierungs-

vorgang basierend auf der Arbeit von Hoffmann [Hof-05]. Das Prinzip stützt sich auf das

V-Modell, ein Vorgehensmodell zur Softwareentwicklung. Nach Quist und Evertsson soll die

Kalibrierung auf drei Ebenen stattfinden, wobei sich die unterste Ebene auf Einzelpartikel-

Eigenschaften bezieht, die zweite einfache Fließexperimente betrifft und die dritte Ebene in-

dustrienahe Anwendungen einbezieht. Da, wie in Unterabschnitt 2.3.1 erwähnt, der Übertrag

von Größen aus Einzelpartikel-Messungen in die Schüttgut-Ebene oft nicht direkt funktioniert,

z. B. bei coarse graining, fehlt es bei diesem Ansatz an der Flexibilität und der Umsetzbarkeit

für reale Problemstellungen der Kalibrierung. Falls Diskrete-Elemente-Methode-Parameter

zuerst im Labormaßstab kalibriert werden und im Anschluss die Partikelgrößenverteilung

für industrielle Prozesse größer skaliert wird, damit der Berechnungsaufwand angemes-

sen bleibt, müssen die Parameter neu kalibriert werden [Ben-16b; Coe-17]. Durch die

Veränderung der Partikelgrößen verlieren die kalibrierten Material- und Kontaktparameter

ihre Gültigkeit. Die vertikale Abgrenzung zwischen einfachen Labortests und industriellen

Schüttgutprozessen ist deshalb nicht zielführend.

Der aktuellste Ansatz für ein Kalibrierungsverfahren stammt von Benvenuti et al. [Ben-

16b], welche mit einem künstlichen neuronalen Netzwerk arbeiten. Hierbei werden die

Zusammenhänge zwischen den Diskrete-Elemente-Methode-Parametern und Zielgrößen

durch neuronale Netzwerke beschrieben und das Diskrete-Elemente-Methode-Modell somit

ersetzt. Dieses Vorgehen wurde basierend auf Messdaten für den Böschungswinkel, die

Schüttdichte und die innere Reibung (Scherzelle) erfolgreich getestet. Jedoch benötigen

künstliche neuronale Netzwerke Training mit Testdaten, bevor sie zur Vorhersage von

Zielgrößen eingesetzt werden können. In der Studie von Benvenuti et al. waren über 600

Diskrete-Elemente-Methode-Berechungsläufe für das Training des neuronalen Netzwerks

erforderlich; eine noch höhere Anzahl an Diskrete-Elemente-Methode-Berechnungsläufen ist

von Verfahren zu erwarten, die bei der direkten Optimierung von Zielgrößen basierend auf

den Diskrete-Elemente-Methode-Modellen ansetzen (z. B. [Asa-07; Wan-10; Do-17; Zou-17])

[For-08, S. viii]. Des Weiteren erfolgt die eigentliche Kalibrierung bei Benvenuti et al. nicht

durch Optimierung der Diskrete-Elemente-Methode-Parameter, sondern durch die Simulation

25

Page 46: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

einer Vielzahl von Parameterkombinationen und das anschließende Herausfiltern passender

Ergebnisgrößen bzw. den dazugehörigen Parametersätzen.

2.4 Bestimmung von Parametern in Kalibrierungsproblemen

Das Anpassen von Parametern einer Funktion, sodass diese eine Zielgröße mit möglichst

geringen Abweichungen annähert, wird in der Mathematik als Ausgleichs- oder Kalibrie-

rungsproblem bezeichnet. Dem Ausgleichsproblem liegt ein System bzw. Modell H mit

den Modellparametern L zugrunde, das für einen Satz von Eingangsparametern x eine

oder mehrere Systemantworten y zurückgibt (Gleichung 2-50). H(L, x) entspricht bei der

Kalibrierung von Diskrete-Elemente-Methode-Parametern dem Diskrete-Elemente-Methode-

Modell.

y = H(L, x) (2-50)

Dem gegenüber stehen bekannte Werte für y, yM , welche an den Stellen xM die Sys-

temantwort darstellen. Bei der Kalibrierung von Diskrete-Elemente-Methode-Parametern

handelt es sich hierbei um Messwerte aus der Schüttgutcharakterisierung; zum Beispiel

die Schüttdichte (yM ) bei Verdichtung des interessierenden Schüttguts mit einer definierten

Druckspannung (xM ). Gewöhnlich wird die Anzahl der Modellparameter L deutlich von der

Anzahl der Wertepaare (xM , yM ) übertroffen.

Innerhalb des Kalibrierungsproblems muss beim System H zwischen Interpolation und

Approximation unterschieden werden. Bei der Interpolation wird davon ausgegangen, dass

die Messwertpaare exakt sind, also keine Streuung aufweisen. Es wird somit gefordert, dass

H(L, xM) die exakten Werte für yM zurückgibt. Dahingegen setzt die Approximation eine

Streuung in den Messgrößen voraus, sodass H(L, xM) nicht exakt zu den Resultaten yM

führen muss.

Bei der Anwendung für die Diskrete-Elemente-Methode ist die Forderung nach Approxi-

mation oder Interpolation nicht unmittelbar erkennbar. Zwar weisen die Messwertpaare

aus der Schüttgutcharakterisierung eine Streuung auf, jedoch erzeugen Diskrete-Elemente-

Methode-Modelle Ergebnisse, welche im Rahmen der maschinellen Rechengenauigkeit

exakt reproduzierbar sind. Für die Kalibrierung von Diskrete-Elemente-Methode-Modellen

können somit zwei Sichtweisen für H abgeleitet werden:

1. Es wird angenommen, dass das zu kalibrierende Diskrete-Elemente-Methode-Modell

eine repräsentative Messung darstellt, da sein Ergebnis an einer Stelle stets gleich

ausfallen wird. In der Folge kann bei der Ausgleichsrechnung ein Interpolationsmodell

26

Page 47: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.4 Bestimmung von Parametern in Kalibrierungsproblemen

eingesetzt werden, welches die Punkte yM = H(L, xM) exakt wiedergibt. Dies ist als

simulationszentrierte Sicht einzustufen und entspricht den tatsächlichen Verhältnissen

im Diskrete-Elemente-Methode-Modell.

2. Es wird angenommen, dass das zu kalibrierende Diskrete-Elemente-Methode-Modell

repräsentativ für alle durchgeführten physikalischen Messungen steht. Damit wird

die strikte Forderung aus der simulations-zentrierten Sichtweise aufgeweicht und

durch yM ≈ H(L, xM) ersetzt, sodass ein Approximationsmodell eingesetzt werden

kann. Dies ist als messungsbezogene Sicht zu werten und ist das Ziel, welches in

der industriellen Anwendung der Diskrete-Elemente-Methode zumeist erreicht werden

soll. Jedoch spiegelt diese Sichtweise das Verhalten des Diskrete-Elemente-Methode-

Modells nicht wider.

Das Ziel der Ausgleichsrechnung ist es, die Modellparameter L so einzustellen, dass die

Abweichung ε zwischen den Systemantworten und den Messwertepaaren minimal wird

(Gleichung 2-51).

ε = H(L, xM)− yM ; |ε| → minimieren (2-51)

Da es sich bei der Minimierung von ε um ein Optimierungsproblem handelt, folgt eine

Übersicht zu Optimierungsverfahren. ε wird im Folgenden als Zielfunktion der Optimierung

bezeichnet.

2.4.1 Numerische Optimierungsverfahren

Diese Übersicht beschränkt sich auf numerische Optimierungsverfahren, da für Diskrete-Ele-

mente-Methode-Modelle im Allgemeinen keine analytischen Beschreibungen verfügbar sind.

Zudem wird vorausgesetzt, dass das Kalibrierungsproblem lösbar ist, d. h. dass mindestens

ein Parametersatz Lc existiert, für den sich hinreichend kleine Werte für ε aus Gleichung 2-51

ergeben.

Aufgrund der komplexen physikalischen Grundlagen der mittels der Diskrete-Elemente-Me-

thode modellierten Vorgänge muss von einem nichtlinearen Problem ausgegangen werden.

Des Weiteren gehen Nebenbedingungen in das Optimierungsproblem ein. So wird sicherge-

stellt, dass der Parametersatz Lc beispielsweise keine negativen Partikeldichten oder über al-

le Maßen unphysikalische Werte für Reibungskoeffizienten enthält.

Für nichtlineare Optimierungsprobleme mit Nebenbedingungen existiert eine Vielzahl von

Lösungsverfahren (z. B. [Pap-15]). Je nach deren Ausprägung kommen diese Verfahren

ohne (z. B. Downhill-Simplex, Bisektion) oder nur mit (Gradient descent, Newton-Raphson)

27

Page 48: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

dem Gradienten der Zielfunktion aus. Gradientenbasierte Verfahren machen es sich zu

Nutze, dass der Gradient an einem (lokalen) Extremwert Null ist, bzw. versuchen aus dem

Vergleich von lokalen Gradienten die mögliche Lage eines Minimums und somit den den

Parametersatz für den nächsten Iterationsschritt zu bestimmen. Manche Verfahren, wie der

gradientenabhängige Levenberg–Marquardt-Algorithmus, wurden speziell für Kalibrierungs-

probleme entworfen.

Einige der Optimierungsverfahren, die ohne die Berechnung von Gradienten auskommen,

bedienen sich in ihrem Prinzip bei der Natur. Bekannte Vertreter dieser naturanalogen Ver-

fahren sind evolutionäre Algorithmen. Sie orientieren sich am „survival of the fittest“-Prinzip

der Evolutionsbiologie, bei dem, ausgehend von Individuen in einer Anfangspopulation

(Startparametersätze), die am besten geeignetsten Individuen selektiert werden. Im Sinne

der Optimierung handelt es sich dabei um die Parametersätze, die bei der Suche nach einem

Minimum zu den niedrigsten Werten führten. Die selektierten Individuen werden sodann

kombiniert und ihre Nachkommen (inkl. zufälligen Mutationen) bilden die Population der

nächsten Generation (Iterationsschritt).

Wie bereits in Unterabschnitt 2.3.2 erwähnt, wurden diverse numerische Optimierungs-

verfahren bereits in der Vergangenheit zur Kalibrierung von Diskrete-Elemente-Methode-

Parametern eingesetzt [Asa-07; Wan-10; Zou-17] und vor allem neuere Arbeiten setzen

auf evolutionäre Algorithmen ([Zoh-07, S. 125 ff.], [Els-17], [Do-17]), Partikelschwarm-

Algorithmen [Heß-16] oder simulated annealing [Wan-17]. Alle diese numerischen Op-

timierungsverfahren haben gemeinsam, dass die für die Minimierung der Zielfunktion ε

benötigten Informationen anhand von Berechnungsläufen des Systems F bestimmt werden

müssen (vgl. Gleichung 2-51).

Da gradientenbasierte Verfahren zumeist nur lokale Modelle von ε erstellen, verfügen sie über

keinerlei Informationen darüber, welche Funktionswerte ε an anderen Stellen annimmt1. Ihre

Effizienz hängt stark mit der Wahl eines geeigneten Startparametersatzes zusammen und

ungünstige Startparameter führen dazu, dass mehr Iterationsschritte nötig sind bis schließlich

ein Minimum in der Zielfunktion ε gefunden wird. Dabei muss ε bzw. H in jedem Iterati-

onsschritt für mehrere Parametersätze berechnet werden. Verfahren, die ohne Gradienten

auskommen, bilden oft keine lokalen Modelle, sondern berechnen H an vielen verschiede-

nen Stellen, um globale2 Minima aufzuspüren. Dieser Ansatz führt somit ebenfalls dazu, dass

H an vielen verschiedenen Stellen berechnet werden muss.

1Weshalb diese Vefahren im Allgemeinen keine globalen Extrema finden.2„Global“: Innerhalb des vorgegebenen Parameterraumes; das zweifelsfreie Auffinden von globalen Extrema

ist bei nichtlinearen Problemen äußerst aufwändig.

28

Page 49: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.4 Bestimmung von Parametern in Kalibrierungsproblemen

Auf den großen Berechnungsaufwand für Diskrete-Elemente-Methode-Modelle wurde in

Unterabschnitt 2.2.3 eingegangen. Er führt dazu, dass der direkte Einsatz von numerischen

Optimierungsverfahren für die Kalibrierung von Diskrete-Elemente-Methode-Parametern

wegen der großen Anzahl an Berechnungsläufen sehr ineffizient ist [For-08, S. viii]. Eine Mög-

lichkeit, um diesen großen Aufwand zu umgehen, ist die Ersetzung des jeweiligen Diskrete-

Elemente-Methode-Modells durch ein anderes System, welches für gleiche Eingangspara-

metersätze die gleichen Ergebnisse ausgibt, jedoch deutlich kürzere Berechnungsdauern

aufweist.

2.4.2 Metamodelle

Das Ziel der Metamodellierung ist es ein Modell h zu generieren (Metamodell), welches ein

gegebenes System H nachbildet und einzelne Datenpunkte um mehrere Größenordnungen

schneller als das Ursprungsmodell berechnet (Gleichung 2-52).

h(x)!

= H(x), unter Beachtung von:

Berechnungsaufwand(h(x))� Berechnungsaufwand(H(x))(2-52)

2.4.2.1 Hintergrund

Metamodelle können dort zum Einsatz kommen, wo aufgrund von aufwändigen oder teuren

Messungen bzw. Berechnungen nur wenige Daten bestimmt werden können [For-08, S. 33,f.]

und keine analytischen Gleichungen zur Beschreibung des Systemverhaltens von H bekannt

sind.

Die Parameter eines Metamodells h, LMM , werden bestimmt, indem das abzubildende Sys-

tem H an verschiedenen Stellen xMM ausgewertet wird und mit den entsprechenden Ergeb-

nissen als eigenes Kalibrierungsproblem formuliert wird (Gleichung 2-53).

εMM = h(LMM , xMM)−H(xMM) |εMM | → minimieren (2-53)

Um die Modellqualität des Metamodells zu überprüfen, kann das Kreuzvalidierungsverfahren

eingesetzt werden. Hierbei werden die Eingangsdaten-Paare (xMM , yMM ) in zwei Gruppen

aufgeteilt. Eine der Gruppen wird zur Parametrisierung des Metamodells herangezogen,

während mit der anderen Gruppe validiert wird, wie genau das parametrisierte Metamodell Er-

gebnisse an neuen Stellen vorhersagt. Durch dieses Verfahren kann eine Über- oder Unteran-

passung des Metamodells erkannt werden. Die Möglichkeit der Überanpassung ist besonders

bei streuungsbehafteten Größen zu beachten [For-08, S. 35].

29

Page 50: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Obwohl die Grundidee von Metamodellen einfach zu beschreiben ist, „liegt der Teufel im

Detail“3 [For-08, S. xiv]. In der Literatur findet sich eine große Vielfalt an Metamodell-Klassen,

welche für sich genommen noch einmal in unterschiedlichen Varianten und Implemen-

tierungen vorliegen. Asher et al. [Ash-15] unterteilen Metamodell-Ansätze in drei große

Klassen:

1. Datengetriebene Modelle, die mittels Eingangsparametersätzen und der Systemant-

wort kalibriert werden. Zum Beispiel Polynomfunktionen, künstliche neuronale Netz-

werke, Kriging oder Support Vector Machines.

2. Projektionsbasierte Modelle, bei denen die maßgeblichen Gleichungen des Ursprungs-

systems auf einen niedrigerdimensionalen Unterraum projiziert werden. Zum Beispiel

Hauptkomponentenanalyse oder die Krylow-Unterraum-Verfahren.

3. Mehrstufige Modelle, bei denen vereinfachte Annahmen getroffen werden oder die nu-

merische Auflösung reduziert wird. Zum Beispiel Mehrgitter-Verfahren oder Mehrskalen-

Finite-Elemente-Methode.

Da im Allgemeinen kein Metamodell-Ansatz stets besser als alle anderen Ansätze ist,

erfolgt ihre Auswahl üblicherweise in Abhängigkeit von der konkreten Anwendung. Unter

Umständen kann es sogar sinnvoll sein, die Auswahl eines Ansatzes und der entsprechenden

Variante einem übergeordneten Optimierungsprozess zu überlassen [Gor-09]. Es werden

jedoch datengetriebene Metamodelle empfohlen, wenn kurze Berechnungsdauern bei guter

Vorhersagegenauigkeit gefordert sind. [Ash-15]

2.4.2.2 Auswahl eines Metamodells

In vorangegangenen Arbeiten mit Bezug zur Diskrete-Elemente-Methode wurden bereits der

response surface-Ansatz [Yoo-07; Joh-10] und künstliche neuronale Netzwerke [Ben-16b]

eingesetzt. Benvenuti [Ben-16a] untersuchte neben den Letzteren auch das Verfahren der

Bayes’schen linearen Regression und der Gauß’schen nichtlinearen Regression mit einer

radialen Basisfunktion als Kovarianzmodell und kam mit einer Vorabuntersuchung zu dem Er-

gebnis, dass künstliche neuronale Netzwerke im Rahmen seiner Untersuchungen zu einer ge-

ringfügig besseren Abbildung der Ursprungsfunktion führten.

Response surface-Modelle werden oft im Zusammenhang mit statistischer Versuchspla-

nung zur Modellierung von mittels Box-Behnken- oder Central Composite-Versuchsplänen

3„While the basic idea of the surrogate model approach sounds simple, the devil is in the details“.

30

Page 51: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.4 Bestimmung von Parametern in Kalibrierungsproblemen

erzeugten Messdaten eingesetzt. Diese Modelle setzen auf Polynome zweiten Grades

als Ansatzfunktionen, wodurch ihre Flexibilität und Genauigkeit im Vergleich zu anderen

Metamodell-Ansätzen beschränkt ist. Sie wurden für die vorliegende Arbeit nicht weiter

berücksichtigt.

Künstliche neuronale Netze erhalten aktuell wegen ihrer vielen Einsatzmöglichkeiten und

der gesteigerten Verfügbarkeit von großen Datenmengen und Berechnungskapazität großen

Zuspruch. Die Grundidee von künstlichen neuronalen Netzen ist die Nachbildung von

natürlichen neuronalen Netzen, wie sie auch im menschlichen Nervensystem vorliegen.

Die Eingangsinformationen werden über ein Netz aus miteinander verknüpften Neuronen

geleitet, welche diese durch ihre Interaktion verarbeiten. Ein einzelnes Neuron wird nur dann

aktiv, wenn es eine ausreichende Menge von aktivierenden Impulsen erhalten hat, der keine

entsprechende Menge an hemmenden Impulsen gegenüberstehen darf. Dementsprechend

werden die Neuronen eines künstlichen neuronalen Netzes auch als Schwellenwertelemente

bezeichnet und modelliert. [Kru-15, S. 9-15]

Mittels künstlicher neuronaler Netzwerke lassen sich beliebige nichtlinearen Funktionsverläu-

fe abbilden, wobei die maximale nachbildbare Komplexität maßgeblich von der Anzahl der

hintereinandergeschaltenen Neuronen-Schichten (eng. layers) und der Anzahl der Neuronen

pro Schicht abhängt. Das sogenannte training eines solchen Netzes entspricht wiederum

dem bereits zu Anfang von Unterabschnitt 2.4.2 beschriebenen Kalibrierungsproblem für

Metamodelle.

Als zusätzlicher Ansatz wurde Kriging mit Matérn-Kovarianzfunktion in Betracht gezogen.

Dieses Verfahren ist im Ansatz mit der Gauß’schen nichtlinearen Regression vergleich-

bar, wurde jedoch mit einer langfristigen Ausrichtung verbunden. Durch den statistisch

motivierten Hintergrund von Kriging kann dieses Verfahren nicht nur zur Vorhersage von

Funktionswerten eingesetzt werden, sondern erlaubt auch die Schätzung der Varianz dieses

Funktionswerts [Web-07, S. 156]. Die Verfügbarkeit dieser zusätzlichen Information führt zu

wesentlichen Möglichkeiten für den zukünftigen Einsatz von Optimierungsprozessen, die

zwischen Meta- und Ursprungsmodell hin und her springen, z. B. expected improvement

[Jon-98; Sve-16] oder space mapping [Bak-01]. Die Berechnung des expected improvement

bietet zudem die Gelegenheit, die Streuung der Zielgrößen aus der Schüttgutcharakterisie-

rung einzubeziehen und so potenziell unnötige Iterationen des Optimierungsalgorithmus zu

unterbinden, falls keine weitere Verbesserung hinsichtlich des Werts der Zielfunktion möglich

ist.

31

Page 52: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Aufgrund der erwarteten zukünftigen Potenziale im Hinblick auf die Effizienz der Kalibrierung

von Diskrete-Elemente-Methode-Parametern, wurde im Rahmen der vorliegenden Arbeit der

Kriging-Ansatz für die Metamodellierung ausgewählt. Die Beschreibung des theoretischen

Hintergrunds von Kriging folgt in Unterabschnitt 2.6.2.

2.5 Statistische Methoden

In den Artikeln dieser publikationsbasierten Dissertation werden verschiedene statistische

Standardmethoden zur Visualisierung von Datensätzen und zur Bewertung von Abhängig-

keiten eingesetzt. Die im Maschinenbau weniger bekannten Methoden werden in diesem

Abschnitt beschrieben.

2.5.1 Boxplots

Boxplots werden eingesetzt, um die Verteilung von ordinal- oder kardinalskalierten Größen

zu visualisieren. Vor der grafischen Darstellung werden der Median und die 25 %- und 75 %-

Quantile (q25, q75) der beobachteten Werte berechnet sowie deren Minimum und Maximum

bestimmt. Die Darstellung selbst besteht aus einem Kasten (englisch: box), deren Ober- und

Untergrenze durch das 25 %- bzw. 75 %-Quantil markiert ist und der ebenfalls den Median

enthält (siehe Abbildung 2-8) [Här-15, S. 64 f.].

Abbildung 2-8: Beispiel für einen Boxplot.

In Verlängerung des Kastens werden die Härchen (englisch: whisker) angetragen, wel-

che bis zum Minimum bzw. Maximum der zu Grunde liegenden Beobachtungen reichen.

Werte xA, die die Bedingung aus Gleichung 2-54 oder 2-55 erfüllen, werden als Aus-

reißer bezeichnet. In diesen Gleichungen ist dq der Interquartilsabstand (dq = q75 −q25).

xA < q25 − 1,5dq (2-54)

xA > q75 + 1,5dq (2-55)

32

Page 53: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.5 Statistische Methoden

Liegen Ausreißer nach oben oder unten vor, so enden die whisker nicht am Minimum

bzw. Maximum, sondern bei nächstgrößeren bzw. -kleineren Wert, der noch innerhalb von

q25 − 1,5dq bzw. q75 + 1,5dq liegt.

2.5.2 Pearson-Korrelationskoeffizient

Mit dem (empirischen) Pearson-Korrelationskoeffizient rXY wird der Grad des linearen

Zusammenhangs zwischen zwei Größen gemessen. Der Koeffizient ist dimensionslos und

berechnet sich für die Größen X und Y mit je NXY ∈ N Beobachtungen nach Gleichung 2-

56. [Här-15, S. 438 ff.]

rXY = rY X =

∑NXY

i=1 [(xi − x)(yi − y)]√∑NXY

i=1 (xi − x)2∑NXY

i=1 (yi − y)2

(2-56)

Die Werte von rXY liegen im Intervall [−1; 1]. Das Vorzeichen von rXY ermöglicht eine

Aussage über direkte (positiv) oder indirekte (negativ) Proportionalität zwischen X und Y .

Ideale Proportionalität (rXY = 1) wird angezeigt, wenn die Beobachtungen von X und Y auf

einer Geraden liegen. Der Betrag von rXY beschreibt das Maß der linearen Abhängigkeit

beider Größen, wie in Tabelle 2-1 aufgelistet.

Tabelle 2-1: Zuordnung des Pearson-Korrelationskoeffizienten zum Grad des linearen Zusammenhangs

[Här-15, S. 440].

|rXY | Korrelation

1 perfekt

> 0,5 stark

< 0,5 schwach

0 keine

2.5.3 Varianzanalyse

Die Varianzanalyse (englisch: analysis of variance, ANOVA) ist ein statistisches Verfahren,

mit dem getestet werden kann, ob Mittelwertsdifferenzen einer Zielgröße in sich unterschei-

denden Gruppen von Stichproben groß genug sind, um auf einen statistisch signifikanten

Unterschied zwischen den Gruppen schließen zu können. Bei der multivariaten ANOVA

(MANOVA), werden mehrere Zielgrößen betrachtet. Die Grundidee der Varianzanalyse ist der

Vergleich zwischen der Gesamtvarianz der Stichprobengruppen und der Varianz innerhalb

33

Page 54: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

der Stichprobengruppen [Fah-16, S. 477]. Die folgende Beschreibung der Varianzanalyse ist

an Hanley [Han-11a, S. 25 ff.] angelehnt.

Es sei j ein Faktor mit insgesamt nj ∈ N+ Faktorstufen, wobei einzelne Faktorstufen mit k

bezeichnet werden. Die beobachtete Zielgröße y mit einzelnen Datenpunkten yi bestehe

aus insgesamt np ∈ N+ Beobachtungen.

Zum Durchführen der Varianzanalyse wird zuerst die Summe der quadrierten Differenzen

zwischen den beobachteten Werten der Zielgröße und deren Mittelwert y nach Gleichung 2-

57 berechnet. SSt drückt die Gesamtvariabilität von y aus.

SSt =

np∑

i=1

(yi − y)2 (2-57)

Die Variabilität durch den Faktor j wird durch die ihm zuzuschreibende Summe der qua-

drierten Differenzen SSfj bestimmt und nach Gleichung 2-58 berechnet. Diese Gleichung

setzt Orthogonalität voraus, d. h. dass zu jeder Faktorstufe gleich viele Beobachtungen

vorliegen.

SSfj = SSt −nj∑

k=1

np/nj∑

i=1

(yi|k − yk

)2

(2-58)

Ein Teil der Gesamtvariabilität lässt sich dadurch erklären, dass der Faktor j die Zielgröße

nj-mal beeinflusst. Die Summation in Gleichung 2-58 erfolgt deshalb über den Mittelwert

der Zielgröße auf der jeweiligen Faktorstufe, yk, und die jeweiligen Beobachtungen yi|k, die

dieser Faktorstufe zugeordnet sind.

Der Teil der Variabilität, der weder durch die Gesamtvariabilität noch durch die Faktoren

erklärt werden kann, wird als Fehler bezeichnet. Die Summe der quadrierten Differenzen des

Fehlers ergibt sich aus Gleichung 2-59, worin nf für die Anzahl der untersuchten Faktoren

steht.

SSe = SSt −nf∑

j=1

SSfj (2-59)

Sofern Faktor-Wechselwirkungen eine Rolle spielen, muss auch ihr Beitrag zur Gesamtvaria-

bilität berechnet werden. Für eine Zwei-Faktor-Wechselwirkung zwischen den Faktoren j und

m berechnet sich die Summe der quadrierten Differenzen für die Wechselwirkung SSfj×fm

nach Gleichung 2-60.

SSfj×fm = SSt − SSfj − SSfm −nj∑

l=1

nm∑

k=1;k 6=l

np/(nj×nm)∑

i=1

(yi|lk − ylk

)2

(2-60)

34

Page 55: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.6 Latin hypercube sampling und Kriging

In Gleichung 2-60 sind nj und nm die Anzahl der Faktorstufen der Faktoren j und m mit ihren

Faktorstufen k und l. Die Summation erfolgt über die Werte der Zielgrößen yi|lk, bei denen j

auf der Faktorstufe l und m auf der Faktorstufe k bestimmt wurde. ylk ist der Mittelwert von

yi|lk.

Im nächsten Schritt werden die quadrierten Differenzensummen durch die Anzahl ihrer

statistischen Freiheitsgrade v dividiert, um die Varianzen V zu errechnen. Die Freiheitsgra-

de werden wie die quadrierten Differenzensummen verschiedenen Anteilen zugerechnet:

Gesamtfreiheitsgrad vt, Faktor- bzw. Faktor-Wechselwirkungs-Freiheitsgrade vf und Fehler-

Freiheitsgrade ve. In den Gleichungen 2-61 bis 2-63 steht nfj für die Gesamtzahl der

betrachteten Faktoren und Faktor-Wechselwirkungen. Der Fehler-Freiheitsgrad muss größer

als Null sein, um eine Varianzanalyse durchführen zu können.

vt = np − 1 (2-61)

vf j = nj − 1 (2-62)

ve = vt −nfi∑

j=1

vfj (2-63)

Die Varianz für jeden Faktor (und jede Faktor-Wechselwirkung) Vj , die Gesamtvarianz Vt und

die Fehlervarianz Ve sind durch die Gleichungen 2-64 bis 2-66 definiert.

Vj =SSfjvfj

(2-64)

Vt =SStvt

(2-65)

Ve =SSeve

(2-66)

Für den Signifikanztest wird der Quotient aus dem jeweiligen Vj und Ve gebildet und als Prüf-

größe mit dem 95 %-Quantil einer F-Verteilung verglichen. Analog dazu kann das Ergebnis

auch als p-Wert mit einem Signifikanzniveau von 0,05 ausgedrückt werden.

2.6 Latin hypercube sampling und Kriging

Latin hypercube sampling und Kriging werden in dieser Arbeit eingesetzt, um Metamodelle

von Diskrete-Elemente-Methode-Modellen zu generieren.

35

Page 56: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

2.6.1 Latin hypercube sampling

Latin hypercube sampling ist eine statistische Methode, mit deren Hilfe Stichproben gezogen

werden können. Die Grundidee ist, dass die gezogenen Stichproben bzw. Probenpunkte in

einem vorgegebenen Gebiet zufällig, aber zugleich gleichmäßig verteilt werden sollen. Das

Verfahren wurde 1979 von McKay et al. beschrieben [McK-79] und wird oft für computerba-

sierte Experimente eingesetzt.

Zunächst wird ein geschlossenes Faktorintervall Vk mit der Untergrenze vk,L und der Ober-

grenze vk,U betrachtet, wobei gilt: vk,L, vk,U ∈ R. Vk ist das k-te Faktorintervall aus einer

Menge von N ∈ N+ Faktorintervallen, in denen insgesamt n ∈ N+ Stichproben verteilt wer-

den sollen. Beim Latin hypercube sampling wird jedes Intervall Vk in n gleich große und sich

nicht überlappende Teilintervalle Wk,i zerlegt. Die Breite wk des i-ten Teilintervalls Wk,i ergibt

sich nach Gleichung 2-67 und die einzelnen Teilintervalle Wk,i sind nach Gleichung 2-68

definiert.

wk =vk,U − vk,L

n(2-67)

Wk,i =

[(i− 1)wk + vk,L; iwk + vk,L], i ∈ [1;n− 1]

[(n− 1)wk + vk,L; vk,U ], i = n(2-68)

Aus jedem Teilintervall Wk,i wird ein zufälliger Wert xk,i gezogen und aus den Permuta-

tionen aller xk,i-Werte zufallsbasiert Kombinationen bestimmt, sodass jedes Wk,i genau

einmal vorkommt. Dem entsprechend ergeben sich n Tupel, die ein N -dimensionales lateini-

sches (Hyper-)Quadrat bilden und gleichzeitig die Koordinaten der Probenpunkte darstel-

len.

Um die gleichmäßige Verteilung der Probenpunkte zu verbessern, wird das sogenannte

MAXIMIN-Kriterium [San-03, S. 183 ff.] berücksichtigt. Hierbei wird das Verfahren zur Er-

zeugung von Probenpunkten mehrere Male wiederholt, um Latin hypercube-Versuchspläne

mit statistischen Unterschieden zu erzeugen. Zum Herausfiltern des Versuchsplans mit

der besten Verteilung wird der euklidische Abstand zwischen allen Probenpunkten eines

Plans berechnet. Die Berechnung erfolgt nach Gleichung 2-69, in der pj und qj die j-te

Probenpunkt-Kombination darstellen und der Abstand dc für alle hp Punktpaare berechnet

wird.

dc(p, q) =

√√√√hp∑

j=1

(pj − qj)2 (2-69)

36

Page 57: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2.6 Latin hypercube sampling und Kriging

Auf die Werte dc wird schließlich das MAXIMIN-Kriterium angewandt. Ausgewählt wird der

Versuchsplan, bei dem der minimale Probenpunkt-Abstand am größten ist. Das heißt der mi-

nimale Abstand dsel des ausgewählten Plans erfüllt die Gleichung 2-70.

min(dsel) = max (min(dc)) (2-70)

2.6.2 Kriging

Der Begriff Kriging umfasst eine Klasse von statistischen Regressionsverfahren, welche mit

verschiedenen Ansatzfunktionen angewandt werden können [Web-07, S. 154] und nach

Daniel G. Krige benannt sind. In der Literatur wird das in dieser Arbeit eingesetzte Verfahren

als Universal Kriging oder Kriging mit Trend bezeichnet. Beim Kriging wird die Abbildung

des quantitativen Zusammenhangs zwischen Eingangsgrößen xs und Ergebnisgrößen

Zs(xs) einer unbekannten Funktion angestrebt. Dazu wird die zu beschreibende Funktion an

mehreren Stellen beprobt und die resultierenden Ergebnisgrößen aufgezeichnet. Basierend

auf diesen Daten erfolgt die Parametrierung der Kriging-Funktionen (im Weiteren auch

als Kriging-Modelle bezeichnet). Das Ziel ist es, die parametrisierten Kriging-Modelle zur

Interpolation an Stellen ohne Eingangsdaten einzusetzen und die unbekannte Funktion

möglichst genau nachzubilden.

Die Beschreibung der Grundlagen von Kriging wird im Folgenden an die Ausführungen

von Webster und Oliver angelehnt [Web-07, S. 195 ff.]. Es wird angenommen, dass die

Eingangsgrößen xs und Ergebnisgrößen Zs(xs) aus einem analytischen Anteil S(xs) und

einem zufälligen AnteilR(xs) bestehen. Zs(xs) kann damit wie in Gleichung 2-71 ausgedrückt

werden.

Zs(xs) = S(xs) +R(xs) (2-71)

Für den analytischen Anteil S kann beispielsweise eine Polynomfunktion ersten Grades

angesetzt werden, welche durch die K Koeffizienten βi und die Funktionen fi beschrieben

wird (vgl. Gleichung 2-72).

Zs(xs) =K∑

i=1

βifi(xs) +R(xs) (2-72)

Um die Ergebnisdaten Zu(xu) der unbekannten Funktion an den nicht beprobten Stel-

len xu zu bestimmen, werden der Versuchsplan aus der Beprobungsphase DLHS und die

Ergebnisdaten Zs(xs) herangezogen. Der zufällige Anteil R kann durch verschiedene An-

sätze beschrieben werden, wobei für die Zwecke der Dissertation eine richtungsabhängige

37

Page 58: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

2 Stand der Wissenschaft und Technik

Kovarianz-Matrix nach Matérn gewählt wurde [Ste-99, S. 12-14]. In vorab durchgeführten

Untersuchungen stellte sich diese als der flexibelste Ansatz für den Böschungswinkel und

die Schüttdichte heraus. Mittels der Daten der Beprobungsphase werden die Koeffizienten

für β und R durch die restricted maximum likelihood-Methode [Ste-99, S. 170] berech-

net. Die Berechnung der gesuchten Ergebnisgrößen Zu an den Punkten xu erfolgt nach

Gleichung 2-73.

Zu(xu) = DLHSβ +R(xu) (2-73)

38

Page 59: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

3 Forschungsbedarf und Ziel der Arbeit

Dieses Kapitel 3 basiert teilweise auf dem Abschnitt 3.2.3 und dem Unterkapitel 3.3 des

Abschlussberichts zum Projekt DEM-Schüttgutdatenbank [Gün-17, S. 8-9], welche ebenfalls

vom Autor dieser Dissertation bearbeitet und verfasst wurden.

3.1 Problemstellung

Marigo und Stitt beschreiben das Fehlen von effizienten Verfahren zur Bestimmung von

Diskrete-Elemente-Methode-Parametern als das größte Hindernis bei der industriellen An-

wendung der Diskrete-Elemente-Methode, kritisieren die Kalibrierung jedoch auch als un-

günstiges Herangehen, sofern sie ohne sinnvolle Restriktionen und Zielgrößen durchgeführt

wird. Sie betonen außerdem, wie wichtig die Entwicklung von neuen Methoden in diesem

Teilgebiet der angewandten Diskrete-Elemente-Methode ist, welches sie als „unattraktiv und

doch von entscheidender Bedeutung“1 beschreiben. [Mar-15]

Die in Unterabschnitt 2.3.2 beschriebenen Ansätze zur Kalibrierung von Diskrete-Elemente-

Methode-Materialparametern haben gemeinsam, dass sie stark von ihrem spezifischen

Anwendungsfall abhängen und nicht ohne Weiteres für andere Kalibrierungsaufgaben ange-

wandt werden können. Das konkrete Kalibrierungsproblem wird in diesen Arbeiten oft nur

als Nebenaufgabe betrachtet und findet deshalb keine große Beachtung. Des Weiteren wird

die Berechnungseffizienz, d. h. der Rayleigh-Zeitschritt, der Parametersätze vernachlässigt.

Obwohl immer wieder angeführt wird, dass der Berechungsaufwand direkt mit dem Ray-

leigh-Zeitschritt zusammenhängt und auch Maßnahmen unternommen werden, um diesen

direkt zu beeinflussen (z. B. [Lom-14]), wird er beim Kalibrierungsprozess nicht berücksich-

tigt. Im Übrigen muss die Kalibrierung der Diskrete-Elemente-Methode-Parameter beim

Vorliegen von mehreren Zielgrößen simultan erfolgen [Coe-10], wodurch die Komplexität

des Prozesses weiter zunimmt.

Die Einstiegshürden der in Unterabschnitt 2.3.2 beschriebenen Kalibrierungsverfahren neh-

men vom unstrukturierten zum methodischen Vorgehen signifikant zu. Während für die

unstrukturierte Herangehensweise die Kenntnis der Diskrete-Elemente-Methode-Software

ausreicht, erfordert der methodische Ansatz Vorwissen aus den Bereichen der statisti-

schen Versuchsplanung, Regressionsmodellbildung und Optimierungstheorie. Es sind je-

doch genau diese letztgenannten Kenntnisse, die Anwender beim Kalibrieren deutlich

entlasten und schneller zu einem passenden Diskrete-Elemente-Methode-Parametersatz

1„. . . to encourage further work in this unattractive but yet absolutely vital area.“

39

Page 60: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

3 Forschungsbedarf und Ziel der Arbeit

führen können. Die wenigen methodischen Kalibrierungsverfahren konnten sich aufgrund

ihrer hohen Komplexität bislang weder in der industriellen Schüttgutsimulation noch in der

praxisnahen Anwendung der Diskrete-Elemente-Methode in der Forschung durchsetzen,

sodass weitestgehend auf die beiden einfacheren Verfahren zurückgegriffen wird [Suh-

16].

3.2 Ziel der Arbeit

Das Ziel dieser Dissertation ist die Entwicklung und Verifizierung eines automatisch ab-

laufenden, robusten, methodischen Kalibrierungsverfahrens für die Diskrete-Elemente-Me-

thode, welches möglichst wenige Kalibrierungsläufe benötigt und den Rayleigh-Zeitschritt

direkt in die Kalibrierung einbezieht, um möglichst effiziente Parametersätze zu identifizie-

ren.

Zur Entwicklung dieses Verfahrens werden vier Hauptanforderungen formuliert.

1. Das Verfahren muss in der Lage sein, mit einer beliebigen Anzahl an Diskrete-Ele-

mente-Methode-Parametern und Zielgrößen zu arbeiten. Dies beinhaltet unter ande-

rem, dass auch mehrere Zielgrößen aus den Ergebnissen eines Diskrete-Elemente-

Methode-Modells abgeleitet werden können.

2. Als zweite Hauptanforderung werden die Erweiterbarkeit um benutzerspezifische Dis-

krete-Elemente-Methode-Modelle und Flexibilität bei der Anwendung formuliert. Die

Bandbreite der experimentell erfassbaren schüttgutspezifischen Kenngrößen ist sehr

groß und selbst einfache Größen wie die Schüttdichte können mittels unterschied-

licher Methoden bestimmt werden, wobei jede Methode eine Vielzahl von verschie-

denen Messverfahren umfassen kann. Für die Kalibrierung von Diskrete-Elemente-

Methode-Modellen bedeutet das, dass viele verschiedene gemessene Zielgrößen mit

unterschiedlichen Randbedingungen oder Messdaten von selbstdefinierten Prozessen

vorliegen und deshalb oft mit anwendungsspezifischen Diskrete-Elemente-Methode-

Modellen gearbeitet wird. Diese Modelle sollen mit möglichst geringem Aufwand in

das Verfahren implementiert werden können.

3. Die dritte Anforderung betrifft die praktische Anwendbarkeit des Kalibrierungsverfah-

rens. In Abschnitt 3.1 wurde erwähnt, dass methodische Verfahren wegen ihrer Kom-

plexität noch keinen Einzug in die praxisnahe Diskrete-Elemente-Methode-Simulation

40

Page 61: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

3.2 Ziel der Arbeit

gefunden haben. Damit das zu entwickelnde Verfahren einem möglichst breiten An-

wenderkreis zur Verfügung steht, soll großer Wert auf eine möglichst einfache An-

wendbarkeit gelegt werden. Um dies zu erreichen, sollen vor allem die Schritte der

statistischen Versuchsplanung, der Regressionsmodellbildung und der Optimierung

automatisiert sowie möglichst robust und flexibel gestaltet werden. Bei der Regressi-

onsmodellbildung muss außerdem besonders darauf geachtet werden, dass a priori

unbekannte Funktionsverläufe abbildbar sein müssen.

4. Der Rayleigh-Zeitschritt ist Fokus der vierten Anforderung. Dies beinhaltet, dass die

kalibrierten Diskrete-Elemente-Methode-Parametersätze einen möglichst großen Si-

mulationszeitschritt ermöglichen sollen. Dies ist vor allem dann wichtig, wenn ganze

Schüttgutprozesse mittels aufwändiger Diskrete-Elemente-Methode-Modelle mit meh-

reren hundertausend Partikeln simuliert werden sollen. Trotz des massiven Anstiegs

der verfügbaren Berechnungsleistung sind Diskrete-Elemente-Methode-Simulationen

auch weiterhin sehr zeitintensiv und bereits ein um 10 % größerer Berechnungszeit-

schritt kann die Berechnungsdauer eines entsprechend großen Modells um mehrere

Stunden oder sogar Tage verkürzen.

41

Page 62: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 63: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4 Kalibrierungsverfahren

Das in dieser Arbeit entstandene methodische Kalibrierungsverfahren für die Diskrete-Ele-

mente-Methode wurde im Rahmen von drei Studien ausführlich getestet, verifiziert, auf

seine Robustheit hin überprüft und der Einfluss der Einbeziehung des Rayleigh-Zeitschritts

untersucht. Die dabei entstandenen Veröffentlichungen (Artikel 1 bis Artikel 3) bilden den

Hauptteil dieser publikationsbasierten Dissertation. In Artikel 4 ist eine eingehende Un-

tersuchung von Schüttgut-Schüttkegeln und der Messung des Böschungswinkels als Ziel-

größe für die Kalibrierung, als Beispiel für fehlende Standardisierung von schüttgutbezo-

genen Messverfahren und die Eignung dieses Kennwerts als Zielgröße für die Kalibrie-

rung.

Artikel 1 Rackl, M.; Görnig, C. D.; Hanley, K. J.; Günthner, W. A.: „Efficient calibration of

discrete element material model parameters using Latin hypercube sampling

and Kriging“. In: Proceedings of ECCOMAS 2016. Hrsg. von Papadrakakis, M.;

Papadopoulos, V.; Stefanou, G.; Plevris, V. Bd. 2. 2016, S. 4061–4072.

Artikel 2 Rackl, M.; Hanley, K. J.; Günthner, W. A.: „Verfication of an automated work

flow for discrete element material parameter calibration“. In: Proceedings of

the 7th International Conference on Discrete Element Methods. Hrsg. von Li,

X.; Feng, Y.; Mustoe, G. Springer Proceedings in Physics. Springer Verlag,

Singapur: 2017, S. 201–208.

Artikel 3 Rackl, M.; Hanley, K. J.: „A methodical calibration procedure for discrete element

models“. In: Powder Technology 307 (2017), S. 73–83.

Artikel 4 Rackl, M.; Grötsch, F. E.; Rusch, M.; Fottner, J.: „Qualitative and Quantitative

Assessment of 3D-Scanned Bulk Solid Heap Data“. In: Powder Technology 321

(2017), S. 105-118.

4.1 Artikel 1: Entwicklung und Implementierung des

Kalibrierungsverfahrens

Rackl, M.; Görnig, C. D.; Hanley, K. J.; Günthner, W. A.: „Efficient calibration of discrete

element material model parameters using Latin hypercube sampling and Kriging“. In: Pro-

ceedings of ECCOMAS 2016. Hrsg. von Papadrakakis, M.; Papadopoulos, V.; Stefanou, G.;

Plevris, V. Bd. 2. 2016, S. 4061–4072.

43

Page 64: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4 Kalibrierungsverfahren

4.1.1 Beitrag zur Veröffentlichung

Die mit Artikel 1 verbundenen Arbeiten wurden maßgeblich vom Autor dieser Dissertation

konzipiert, geplant und durchgeführt, bzw. unter seiner Anleitung umgesetzt. Der Ablaufplan

und der erste lauffähige Prototypen-Code für das Kalibrierungsverfahren und zur Bildver-

arbeitung bzw. Messung des Böschungswinkels wurden von ihm erstellt, ebenso wie die

Studienplanung und die entsprechende Auswertung für Artikel 1. Die Idee zum Einsatz

von Kriging entstand zusammen mit Dr. Hanley. Frau Görnig war als wissenschaftliche

Hilfskraft am Lehrstuhl fml angestellt und im fortgeschrittenen Entwicklungsstadium des

Verfahrens unter der Anleitung des Autors dieser Dissertation mit der programmtechni-

schen Umsetzung betraut. Artikel 1 wurde federführend vom Autor dieser Dissertation

verfasst.

4.1.2 Beitrag zum Kalibrierungsverfahren

In Artikel 1 wird beschrieben, wie sich die Teilaufgaben des Kalibrierungsprozesses mit-

tels eines automatisch ablaufenden Algorithmus umsetzen lassen. Diese Teilaufgaben

wurden in Artikel 1 erarbeitet und sind (I) die Definition von Zielgrößen und Recherche

von Parameterintervallen in der Literatur oder der eigenen Erfahrung, (II) das Erlangen

von Systemverständnis bezüglich des Zusammenhangs zwischen den Diskrete-Elemente-

Methode-Parametern und den Zielgrößen, (III) das Ausnutzen dieses Systemverständnisses

zum Finden von geeigneten Parametersätzen.

Die programmtechnische Umsetzung dieser Teilaufgaben erfolgte mittels des Ablaufplans in

Abbildung 4-1 und gliedert sich in drei Phasen. Diese Phasen können den Teilaufgaben der

Kalibrierung zugeordnet werden.

(I) Während der sampling-Phase legt der Anwender fest, welche Parameter zur Kalibrie-

rung eingesetzt werden und definiert für jeden Parameter zusätzlich eine untere und

obere Intervallgrenze. Die Intervallgrenzen werden definiert, damit die kalibrierten

Diskrete-Elemente-Methode-Parametersätze innerhalb von physikalisch gültigen Gren-

zen liegen, womit der Forderung nach sinnvollen Restriktionen von Marigo und Stitt

[Mar-15] entsprochen wird. Im nächsten Schritt werden aus allen Parameterintervallen

Probenpunkte mittels Latin hypercube sampling bestimmt, die Diskrete-Elemente-

Methode-Modelle an diesen Stellen berechnet und ihre Ergebnisse ausgewertet. Mit-

tels des nun verfügbaren Satzes aus Parametersätzen und entsprechenden Werten

44

Page 65: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4.1 Artikel 1: Entwicklung und Implementierung des Kalibrierungsverfahrens

für die Zielgrößen wird ein Kriging-Metamodell parametriert, welches die Zusammen-

hänge zwischen diesen Größen abbildet und im Gegensatz zu den Diskrete-Elemente-

Methode-Modellen sehr viel kürzere Berechnungsdauern von nur wenigen Zehntelse-

kunden aufweist.

(II) Da für jede Zielgröße ein eigener Kriging-Parametersatz bestimmt wird, kann in der

zweiten Phase ein Optimierungsalgorithmus zur multivariaten, inversen Parameterfin-

dung eingesetzt werden. Neben den physikalischen Zielgrößen wird als zusätzliche

Bedingung die Maximierung des Rayleigh-Zeitschritts angestrebt. Da die Werte des

Rayleigh-Zeitschritts, tR, theoretisch-physikalisch in einem uneigentlichen Intervall

{tR ∈ R : tR ≥ 0} liegen, wird tR für die Residuen-Minimierung auf die Spanne zwi-

schen dem mit den gegebenen Intervallgrenzen größt- und kleinstmöglichen Rayleigh-

Zeitschritt normiert. Der so bestimmte Diskrete-Elemente-Methode-Parametersatz ist,

basierend auf den Kriging-Metamodellen, optimal1.

(III) In der dritten Phase wird der Optimierungsprozess wiederholt, wobei die Kriging-

Metamodelle mit den Diskrete-Elemente-Methode-Modellen ersetzt werden. Da der

optimale Parametersatz aus der zweiten Phase erwartungsgemäß bereits sehr nahe

am Optimum der Diskrete-Elemente-Methode-Modelle liegt, werden in der zweiten

Optimierungsphase nur wenige Funktionsauswertungen der Kostenfunktionen benötigt

und der gefundene Parametersatz gleichzeitig anhand der Diskrete-Elemente-Methode-

Modelle validiert.

Um das Kalibrierungsverfahren gezielt verifizieren zu können, wurde ein mittels Diskrete-

Elemente-Methode gut zu diskretisierendes Schüttgut ausgewählt. Glasperlen lassen sich

aufgrund ihrer runden Form in sehr guter Näherung als Kugeln abbilden und ihre Eigen-

schaften sind in der Literatur gut dokumentiert. Dahingegen spielen bei einem Schüttgut

mit breiter Partikelgrößenverteilung oder schwer zu beschreibenden Partikelformen viele

Diskrete-Elemente-Methode-Parameter in die Kalibrierung hinein, was die Zuordnung von

Effekten im Rahmen der Verifizierung erschwert hätte.

Wie in Abschnitt 2.1 beschrieben, wurden der Böschungswinkel und die Schüttdichte auf-

grund ihrer Bekanntheit und weiten Verbreitung als Zielgrößen ausgewählt. Außerdem wird

die Schüttdichte maßgeblich von der Partikeldichte beeinflusst und ist für das Kalibrierungs-

1Bedingt durch den verwendeten Optimierungsalgorithmus beschränkt sich diese Aussage zum Optimum im

Rahmen dieser Dissertation auf lokale Optima (vgl. Abschnitt 6.1).

45

Page 66: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4 Kalibrierungsverfahren

intervals ofmaterial

parameters

Latin hypercubesampling

discrete elementmodels of simple

material test setups

DEM modelresponse

input forKriging

Kriging

meta-model foreach material test

setup

optimizationusing

measurementresults as target

values

startingvalues for

calibration ofthe DEMmaterialmodel

discrete elementmodels

of simpletest setups

optimizationusing

measurementresults as target

values

calibratedDEM

materialparameters

Sam

plin

g ph

ase

1st o

ptim

izat

ion

phas

e2nd

opt

imiz

atio

n ph

ase

Abbildung 4-1: Ablaufplan des entwickelten Kalibrierungsverfahrens (Abbildung aus [Rac-17b]).

verfahren von besonderem Interesse, da die Partikeldichte auch in die Berechnung des

Rayleigh-Zeitschritts eingeht.

Die Umsetzung wurde mit den Zielgrößen Schüttdichte und Böschungswinkel und den

Diskrete-Elemente-Methode-Parametern Dichte und Rollreibungskoeffizient erfolgreich de-

monstriert. Es konnte gezeigt werden, dass die erreichbare Abweichung von den Zielgrößen

kleiner als die experimentelle Messstreuung ist und dass die Kalibrierung unabhängig von der

zufälligen, initialen Konfiguration der Diskrete-Elemente-Methode-Partikel ist. Wie erwartet

steigt der Optimierungsaufwand, wenn die Diskrete-Elemente-Methode-Parameterintervalle

breiter gewählt werden.

4.2 Artikel 2: Untersuchung der Robustheit des Kalibrierungsverfahrens

Rackl, M.; Hanley, K. J.; Günthner, W. A.: „Verfication of an automated work flow for discrete

element material parameter calibration“. In: Proceedings of the 7th International Conference

on Discrete Element Methods. Hrsg. von Li, X.; Feng, Y.; Mustoe, G. Springer Proceedings

in Physics. Springer Verlag, Singapur: 2017, S. 201–208.

46

Page 67: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4.2 Artikel 2: Untersuchung der Robustheit des Kalibrierungsverfahrens

4.2.1 Beitrag zur Veröffentlichung

Die mit Artikel 2 verbundenen Arbeiten wurden vom Autor dieser Dissertation konzipiert,

geplant und durchgeführt. Teile der Studienplanung, insbesondere die Festlegung der

Faktorstufen, erfolgten in Zusammenarbeit mit Dr. Hanley. Artikel 2 wurde federführend vom

Autor dieser Dissertation verfasst.

4.2.2 Beitrag zum Kalibrierungsverfahren

Nachdem in Artikel 1 gezeigt wurde, dass das Kalibrierungsverfahren erfolgreich einge-

setzt werden kann, wurde in Artikel 2 überprüft, wie robust das Kalibrierungsverfahren auf

verschiedene Randbedingungen reagiert.

Die untersuchten Randbedingungen waren, wie in Artikel 1, die Parameterintervalle und die

zufällige, initiale Diskrete-Elemente-Methode-Partikelposition. Diese wurden um die Anzahl

der während der sampling-Phase gezogenen Probenpunkte und die Lage des gesuchten

optimalen Diskrete-Elemente-Methode-Parametersatzes innerhalb der anwenderdefinier-

ten Parameterintervalle ergänzt. Aus diesen Randbedingungen wurde ein vollfaktorieller

Versuchsplan mit drei Wiederholungen abgeleitet, was zu einer Gesamtzahl von 108 numeri-

schen Experimenten führte.

Diskrete-Elemente-Methode-Parametersätze, die die Schüttdichte von 1500 kg m−3 und

den Böschungswinkel von 22◦ mit einer maximalen Differenz von 5 % erfüllten wurden

vorab aus 400 berechneten Werten für die Zielgrößen bestimmt und sind in Abbildung 4-

2a und Abbildung 4-2b als schwarze Punkte abgebildet. Da durch den zu bestimmenden

Diskrete-Elemente-Methode-Parametersatz beide Zielgrößen gleichermaßen abgebildet

werden sollten, wurde in Abbildung 4-2c die Schnittmenge aus den Mengen in Abbildung 4-

2a und Abbildung 4-2b gebildet. Es wurde erwartet, dass die Parametersätze aus den 108

Randbedingungskombinationen in der in Abbildung 4-2c durch Punkte gekennzeichneten

Fläche liegen.

Wie in Abbildung 4-2d zu erkennen, lag mit 93 Parametersätzen der Großteil der 108 ka-

librierten Parametersätze im erwarteten Bereich. Die mittleren Abweichungen zwischen

den Zielgrößen und den kalibrierten Diskrete-Elemente-Methode-Ergebnissen waren 1,7 %

beim Böschungswinkel und 5 % bei der Schüttdichte. Die 15 Parametersätze außerhalb des

erwarteten Bereichs konnten durch ihre Lage in drei Gruppen unterteilt werden. Bei der

Betrachtung der dazugehörigen Randbedingungskombinationen konnte anhand von theoreti-

schen Überlegungen gezeigt werden, dass diese Kombinationen als für die Kalibrierung sehr

47

Page 68: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4 Kalibrierungsverfahren

1000 2000 3000 4000 5000

0.4

0.6

0.8

1

particle density (kg/m3)

rollingfriction(-)

1000 2000 3000 4000 5000

0.4

0.6

0.8

1

particle density (kg/m3)

rollingfriction(-)

1000 2000 3000 4000 5000

0.4

0.6

0.8

1

particle density (kg/m3)

rollingfriction(-)

1000 2000 3000 4000 5000

0.4

0.6

0.8

1

particle density (kg/m3)

rollingfriction(-)

desired bulk density (BD) 1500 kg/m3 ± 5%desired angle of repose (AoR) 22◦ ± 5%

intersection of desired AoR and BD optimized solutions from calibration (red)

Abbildung 4-2: Angestrebte Parametersätze für den Böschungswinkel (a) und die Schüttdichte (b). (c) zeigt

die Schnittmenge aus (a) und (b) und (d) in rot die Lage der kalibrierten Parametersätze

(Abbildung aus [Rac-17c]).

ungünstig einzustufen sind. Die Lage des Optimums an der unteren Parametergrenze der Par-

tikeldichte war der gewichtigste Grund für die zum Teil sehr großen Abweichungen in diesen

drei Gruppen. Hier kam der Einfluss des Rayleigh-Optimierungskriteriums überproportional

zum Tragen. Mit der Folge, dass die physikalischen Zielgrößen im Optimierungsprozess

vernachlässigt wurden.

Abgesehen von Ausnahmen bei Kalibrierungsrandbedingungen für den ungünstigen Fall

erwies sich das entwickelte Kalibrierungsverfahren als sehr robust. Jedoch darf der Einfluss

des Rayleigh-Zeitschrittkriteriums auf die Kalibrierungsergebnisse nicht unterschätzt werden.

Es wird vorgeschlagen, dieses Kriterium mit einem Gewichtungsfaktor von 0,5 zu versehen

und darauf hingewiesen, dass die kalibrierten Parametersätze stets durch einen Diskrete-

Elemente-Methode-Anwender kontrolliert werden müssen.

48

Page 69: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4.3 Artikel 3: Erweiterte Validierung und Einfluss des Rayleigh-Zeitschritt-Kriteriums

4.3 Artikel 3: Erweiterte Validierung und Einfluss des

Rayleigh-Zeitschritt-Kriteriums

Rackl, M.; Hanley, K. J.: „A methodical calibration procedure for discrete element models“.

In: Powder Technology 307 (2017), S. 73–83.

4.3.1 Beitrag zur Veröffentlichung

Die mit Artikel 3 verbundenen Arbeiten wurden vom Autor dieser Dissertation konzipiert,

geplant und durchgeführt. Teile der Studienplanung und der Ergebnisdeutung, insbesondere

im Zusammenhang mit der MANOVA, erfolgten in Zusammenarbeit mit Dr. Hanley. Artikel 3

wurde federführend vom Autor dieser Dissertation verfasst.

4.3.2 Beitrag zum Kalibrierungsverfahren

Die Ergebnisse aus Artikel 2 zeigten, dass der Rayleigh-Zeitschritt den Kalibrierungsprozess

zu Ungunsten der physikalischen Zielgrößen beeinflussen kann. Dieser Einfluss war das

Untersuchungsziel in Artikel 3. Zudem sollte demonstriert werden, dass durch die explizi-

te Einbeziehung des Rayleigh-Zeitschritts signifikant höhere Zeitschritte erreicht werden

können. Des Weiteren wurden die Wechselwirkungen zwischen den Diskrete-Elemente-

Methode-Parametern und ihre Effekte auf die Zielgrößen und den Rayleigh-Zeitschritt be-

trachtet.

Basierend auf einem leicht modifiziertem Diskrete-Elemente-Methode-Modell aus Artikel 1

und Artikel 2 wurden erneut der Böschungswinkel und die Schüttdichte als Zielgrößen ver-

wendet. Zur Kalibrierung wurden verschiedene Parameterkombinationen eingesetzt, wobei

die Partikeldichte und der Rollreibungskoeffizient zwischen den Partikeln stets zur Kalibrie-

rung verwendet wurden. Weitere Parameter waren der Rollreibungskoeffizient zwischen

Partikel und Wand, die Coulomb’schen Reibungskoeffizienten zwischen Partikel und Partikel

sowie Partikel und Wand und der Elastizitätsmodul der Partikel. In den Versuchsplan flos-

sen außerdem ein Gewichtungsfaktor für das Rayleigh-Zeitschrittkriterium der Optimierung,

WRL, und die Anzahl der mittels Latin hypercube sampling gezogenen Probenpunkte, SPP ,

ein. Die Einführung eines Gewichtungsfaktors wurde in Artikel 2 vorgeschlagen und sollte

klären, wie groß der Einfluss des Rayleigh-Optimierungskriteriums auf die physikalischen

Zielgrößen und den kalibrierten Parametersatz ist.

49

Page 70: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4 Kalibrierungsverfahren

Die Anzahl der Probenpunkte wurde als relativer Wert vorgegeben, da die Anzahl der zur

Kalibrierung freigegebenen Diskrete-Elemente-Methode-Parameter in dieser Studie variierte.

Aus Artikel 1 ist bekannt, dass die Probendichte die Qualität der Kriging-Metamodelle

beeinflusst. Um die Probendichte konstant zu halten, wurde die Anzahl der Probenpunkte

für jeden numerischen Einzelversuch aus der Anzahl der zur Kalibrierung freigegebenen

Parameter berechnet.

Die Ergebnisse der Studie zeigen, dass beide Zielgrößen erfolgreich kalibriert wurden. Die

Median-Werte der Abweichungen liegen bei ca. 5 % beim Böschungswinkel und ungefähr 3 %

bei der Schüttdichte. Die größeren Differenzen beim Böschungswinkel lassen sich auf die

größere Streuung bei der Messung zurückführen (vgl. Unterunterabschnitt 2.1.3.2). Die zu

diesen Ergebnissen führenden Diskrete-Elemente-Methode-Parametersätze waren zum Teil

sehr unterschiedlich und sind in Abbildung 4-3 über dem Gewichtungsfaktor des Rayleigh-

Zeitschritts abgebildet. Für die Partikeldichte und den Elastizitätsmodul ist ein eindeutiger

Unterschied zwischen den Fällen erkennbar, bei denen das Rayleigh-Kriterium ignoriert

(WRL = 0) oder einbezogen wird (WRL = 0,5;WRL = 1). Diese Größen werden systema-

tisch und positiv im Sinne der Anhebung des Berechnungszeitschritts beeinflusst, wie durch

das Kalibrierungsverfahren angedacht. Gemäß Gleichung 2-48 folgen bei Berücksichtigung

des Rayleigh-Zeitschritts größere Partikeldichten und ein niedrigerer Elastizitätsmodul bzw.

Schubmodul. Die beiden Reibungskoeffizienten zwischen Partikel und Wand, RF_PW und

MU_PW , liegen breit verteilt innerhalb ihres jeweiligen Parameterintervalls, was darauf

hindeutet, dass ihr Einfluss auf die Zielgrößen im Vergleich zu den restlichen Parametern

eher gering war.

Der Vergleich von Korrelationskoeffizienten und eine multivariate Varianzanalyse (MANOVA)

zeigten, dass die Effekte der Parameter auf die Zielgrößen der Diskrete-Elemente-Methode-

Modelle mit hinreichender Genauigkeit durch die parametrisierten Kriging-Modelle abgebildet

werden können. Alle Einzelfaktoren der Diskrete-Elemente-Methode- und Kriging-Modelle –

mit Ausnahme von MU_PW beim Diskrete-Elemente-Methode-Modell – hatten einen signifi-

kanten Effekt (Signifikanzniveau: 0,05) auf die Zielgrößen. Trotzdem waren Unterschiede bei

den Zwei-Faktor-Wechselwirkungen ersichtlich, sodass darauf geschlossen werden kann,

dass die Kriging-Modelle kein perfektes Abbild der Diskrete-Elemente-Methode-Modelle

darstellen und der zweite Optimierungsschritt des Kalibrierungsverfahrens nicht entfallen

kann.

Das Hauptergebnis von Artikel 3, der Einfluss des Rayleigh-Zeitschritts auf die physikalischen

Zielgrößen, ist in Abbildung 4-4 dargestellt. Wie links zu erkennen, führt die Einbeziehung des

50

Page 71: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4.3 Artikel 3: Erweiterte Validierung und Einfluss des Rayleigh-Zeitschritt-Kriteriums

● ● ●●

● ●

0

0.5

1

2400 2450 2500 2550 2600

particle density (kg/m3 )

WR

L

●●●

● ●

●●

●●

●●

0.10 0.15 0.20 0.25 0.30

MU_PP (−)

0.10 0.15 0.20 0.25 0.30

MU_PW (−)

●●

●●

●●

●●

●●

0

0.5

1

0.000 0.025 0.050 0.075 0.100

RF_PP (−)

WR

L

●●

●●

0.000 0.025 0.050 0.075 0.100

RF_PW (−)

●● ●

● ●

4.5 5.0 5.5 6.0 6.5

YM (108 Pa)

Abbildung 4-3: Kalibrierte Diskrete-Elemente-Methode-Parameter in Abhängigkeit vom Gewichtungsfaktor

des Rayleigh-Zeitschritts (in Anlehnung zu Abb. 4 aus [Rac-17b]).

Rayleigh-Zeitschritts zu einem signifikant höheren Zeitschritt, während der Böschungswinkel

(Mitte) nicht systematisch beeinflusst wird. Die Schüttdichte (rechts) nimmt bei WRL =

0,5 bzw. WRL = 1 zu, da eine höhere Partikeldichte günstig für die Maximierung des

Rayleigh-Zeitschritts ist und einen sehr großen Einfluss auf die Schüttdichte hat. Trotz der

systematischen Beeinflussung der Partikeldichte ist die Auswirkung auf die Schüttdichte

absolut gesehen gering, da diese selbst beiWRL = 1 nur wenige Prozent über dem Zielwert

liegt.

●2.6 × 10−5

2.8 × 10−5

3.0 × 10−5

3.2 × 10−5

0 0.5 1

WRL

Ray

leig

h tim

e−st

ep (

s)

0

10

20

30

0 0.5 1

WRL

diffe

renc

e fr

om 2

2° (

%)

−2.5

0.0

2.5

5.0

0 0.5 1

WRL

diffe

renc

e fr

om 1

500

kg/m

3 (%)

Abbildung 4-4: Einfluss der Einbeziehung des Rayleigh-Zeitschritts (durch den Gewichtungsfaktor WRL)

in den Kalibrierungsprozess auf die physikalischen Zielgrößen und den Rayleigh-Zeitschritt

(Abb. nach [Rac-17b]).

Die Effizienz des Kalibrierungsverfahrens hängt davon ab, wie oft die Diskrete-Elemente-

Methode-Modelle berechnet werden müssen, um einen Parametersatz zu kalibrieren. Auf-

grund ihres Berechnungsaufwands und der damit verbundenen Berechnungsdauer stellen

51

Page 72: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4 Kalibrierungsverfahren

sie den limitierenden Faktor dar. Die Anzahl der für das beschriebene Kalibrierungsverfah-

ren benötigten Diskrete-Elemente-Methode-Berechnungsläufe setzt sich aus zwei Anteilen

zusammen. Der erste Anteil ist bedingt durch das Latin hypercube sampling, wobei die

Anzahl der Probenpunkte vom Anwender festgelegt wird und somit vorab bekannt ist. Im

Gegensatz dazu ist die Anzahl der Berechnungsläufe im zweiten Anteil vorab unbekannt.

Dieser Anteil ist den Iterationen der zweiten Optimierungsphase zuzuordnen und hängt

von verschiedenen Faktoren ab; beispielsweise wie nahe der Parametersatz aus der ers-

ten Optimierungsphase am Optimum liegt und welches Optimierungsverfahren eingesetzt

wird.

Die Ergebnisse aus Artikel 3 zeigen, dass die Anzahl der in der zweiten Optimierungsphase

anfallenden Berechnungsläufe abnimmt, wenn in der Beprobungsphase mehr Probenpunkte

vorgeschrieben werden. Wenn die Kriging-Modelle mit mehr Informationen parametriert

werden, bilden sie die Diskrete-Elemente-Methode-Modelle genauer ab und die erste Opti-

mierungsphase führt zu einem besseren Startwert für die zweite Phase. Dementsprechend

sind in der zweiten Phase weniger Iterationen nötig. Die absolute Anzahl der Berech-

nungsläufe für die zweite Optimierungsphase ist unabhängig vom Gewichtungsfaktor des

Rayleigh-Zeitschritts. Es ist zu erwarten, dass die Anzahl der benötigten Iterationen mit

der Einbindung von mehr Zielgrößen ansteigen wird. Dieser Anstieg fällt gegebenenfalls

exponentiell aus, da mit der Ausbildung einer Pareto-Front zu rechnen ist; das heißt die

Verbesserung eines Zielwertes geht mit der Verschlechterung einer oder mehrerer anderer

Zielgrößen einher.

Obwohl mehr Probenpunkte im Trend zu weniger Iterationen in der zweiten Optimierungs-

phase führten, stieg die Gesamtzahl der Diskrete-Elemente-Methode-Berechnungsläufe

an. Im Rahmen dieser Studie konnte die steigende Genauigkeit der Kriging-Modelle den

Berechnungsaufwand für mehr Probenpunkte weder überkompensieren noch kompensie-

ren. Auf Basis der vorliegenden Daten werden drei Probenpunkte pro Parameter empfoh-

len.

In Artikel 3 wurde demonstriert, dass der Rayleigh-Zeitschritt aktiv in die Kalibrierung von

Diskrete-Elemente-Methode-Parametern einbezogen werden kann, ohne die physikalischen

Zielgrößen zu stark zu beeinflussen. Wenn das Optimierungskriterium des Zeitschritts mit

einem Gewichtungsfaktor von WRL = 0,5 in den Kalibrierungsprozess implementiert wird,

lässt sich die Rückkopplung auf die physikalischen Zielgrößen, bei gleichzeitiger systemati-

scher Erhöhung des Rayleigh-Zeitschritts, abmindern. Des Weiteren wurde bestätigt, dass

die physikalischen Zielgrößen durch eine Vielzahl von Parametersätzen beschrieben werden

52

Page 73: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4.4 Artikel 4: Zum Böschungswinkel als Zielgröße für die Kalibrierung

können und diese Lösungsvielfalt durch die Einbindung von zusätzlichen Zielgrößen effektiv

auf relevante und effiziente Parametersätze beschränkt werden kann (vgl. Abbildung 4-

3).

4.4 Artikel 4: Zum Böschungswinkel als Zielgröße für die Kalibrierung

Rackl, M.; Grötsch, F. E.; Rusch, M.; Fottner, J.: „Qualitative and Quantitative Assess-

ment of 3D-Scanned Bulk Solid Heap Data“. In: Powder Technology 321 (2017), S. 105-

118.

4.4.1 Beitrag zur Veröffentlichung

Die mit Artikel 4 verbundenen Arbeiten wurden vom Autor dieser Dissertation konzipiert

und unter seiner Anleitung geplant und durchgeführt. Die Aufbereitung und Auswertung der

Daten für Artikel 4 wurde vom Autor dieser Dissertation getätigt und der Artikel federführend

von ihm verfasst.

4.4.2 Beitrag zum Kalibrierungsverfahren

Der Böschungswinkel wurde aufgrund seiner weiten Verbreitung und dem einfachen Mess-

aufbau als eine Zielgröße für die Verifizierung des Kalibrierungsverfahrens ausgewählt. Wie

in Unterabschnitt 2.1.3 beschrieben, wird in der Theorie davon ausgegangen, dass sich

beim Aufschütten eines leichtfließenden Schüttguts ein Kegel ausbildet. Aus der Literatur ist

jedoch bekannt, dass die Haufwerksformen von Schüttgütern von der Kegelform abweichen

können, beispielsweise in Form von konvexen oder konkaven Kegelmantelflächen [Fra-

07].

In Artikel 4 wurde mittels dreidimensionaler Aufnahmen von Schüttgut-Haufwerken unter-

sucht, wie groß die Unterschiede zu einem idealen Kegel ausfallen. Aus den Erkenntnissen

lässt sich ableiten wie gut der Böschungswinkel als Zielgröße für die Kalibrierung von

Diskrete-Elemente-Methode-Parametersätzen geeignet ist.

Für die Daten aus Artikel 4 wurden insgesamt 108 Messdurchgänge mit acht unterschied-

lichen Schüttgütern durchgeführt. Es wurden Braunkohle, Holz-Hackschnitzel, Kalkstein,

Hochofen-Koks, zwei Arten von Maiskörnern (getrocknet, frisch), Milchpulver und Steinkohle

untersucht. Es wurde mit drei verschiedenen Probenvolumina gearbeitet und bei jedem

Messdurchgang wurde das aufgeschüttete Haufwerk mit einem 3D-Scanner vermessen.

53

Page 74: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4 Kalibrierungsverfahren

Zusätzlich wurden die Schüttdichte und der Böschungswinkel gemessen. Die 3D-Scans

wurden für jedes Haufwerk in einem idealen Kegel mit äquivalenter Höhe und dem ge-

messenen Böschungswinkel eingepasst, die Differenzen zwischen Punkten auf beiden

Oberflächen berechnet und zur Visualisierung auf den idealen Kegel projiziert. In der Visuali-

sierung ist deutlich zu erkennen, dass je nach Schüttgut verschieden geartete Differenzen

vorliegen. Neben den aus der Literatur bekannten globalen Formabweichungen, konnten

lokale Formabweichungen identifiziert werden. Zudem beeinflusst das Verhältnis zwischen

Partikelgrößen(-verteilung) und Probenvolumen das Erscheinungsbild der Haufwerke und

die Kegeligkeit.

Bei Braunkohle trat aufgrund der sehr breiten Partikelgrößenverteilung Segregation auf,

welche zur Ansammlung von größeren Partikeln im unteren Haufwerksbereich und somit zur

Ausbildung einer globalen Formabweichung führte. Milchpulver wies höchst unregelmäßige,

mit fast glatten Flächen verbundene Strukturen im Haufwerk auf. Diese lassen sich durch das

Auftreten von Schüttgut-Lawinen erklären, die während der Bildung des Haufwerks auftreten

und maßgeblich zur markanten konkaven Haufwerksform von kohäsiven Schüttgütern beitra-

gen. Die Haufwerke aus Holz-Hackschnitzeln waren zerklüftet, wodurch die kontinuumsme-

chanische Annahme der Rotationssymmetrie fraglich erscheint. Obwohl Holz-Hackschnitzel

keine Kohäsion aufweisen, wird durch ihre markanten Formen und die durch Holzfasern

gerillte Oberfläche das Abgleiten der Partikel behindert; schlechte Fließeigenschaften sind

die Folge und führen zur Bildung von lokalen Formationen, die fast senkrecht nach oben

ragen und sogar leichte Überhänge ausbilden können.

Die Ergebnisse aus Artikel 4 zeigen, dass Kohäsion, asphärische Partikelformen und Se-

gregation durch breite Partikelgrößenverteilung die theoretischen Konzepte der Kontinu-

umstheorie des Böschungswinkels stark beeinträchtigen und der Böschungswinkel auch

für manche kohäsionslose Schüttgüter mit Vorsicht betrachtet werden muss. Die alleinige

Angabe des Böschungswinkels und eines Streuungsmaßes (z. B. Standardabweichung)

könnte beispielsweise suggerieren, dass Milchpulver eine kleinere Streuung als Maiskörner

aufweist, jedoch muss dabei auch auf die konkret vorliegende Haufwerksform eingegangen

werden. Weicht die Haufwerksform deutlich von einem Kegel ab, muss dies stets bei der

Angabe des Böschungswinkels vermerkt und die Haufwerksform beschrieben oder darge-

stellt werden. Entsprechende Konventionen oder Goldstandards existieren hierfür bislang

nicht, sodass die hier vorgestellte Messprozedur und Darstellung als zweidimensionale

Abwicklung angewandt werden kann. Andere Möglichkeiten, um gravierende Abweichungen

zumindest qualitativ zu dokumentieren, sind Fotografien, welche stets zusammen mit den

Böschungswinkel-Daten weitergegeben werden müssen.

54

Page 75: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

4.4 Artikel 4: Zum Böschungswinkel als Zielgröße für die Kalibrierung

Eine weitere Erkenntnis aus der hier beschriebenen Studie betrifft die Festlegung eines

Mindestdurchmessers des Haufwerks zur sinnvollen Messbarkeit des Böschungswinkels.

Während die FEM-Richtlinie 2.582 [Fed-91] für das Verhältnis von Haufwerksdurchmesser

zu mittlerer Partikelgröße einen Wert von mindestens 20 definiert, deuten die Ergebnisse

aus Artikel 4 darauf hin, dass dieses Verhältnis für wiederholbare Messungen über 40 liegen

sollte.

Abschließend kann festgehalten werden, dass der Böschungswinkel eine valide Zielgröße

zur Kalibrierung von Diskrete-Elemente-Methode-Parametersätzen darstellt. Es muss jedoch

vorausgesetzt werden, dass das Messverfahren genau beschrieben wurde und die Hauf-

werksform tatsächlich einem Kegel zugeordnet werden kann.

Mit Bezug zur Kalibrierung von Diskrete-Elemente-Methode-Parametern zeigt Artikel 4 auf,

wie eine etablierte Kenngröße – der Böschungswinkel – sinnvoll erweitert werden kann, um

ihre Einsatzmöglichkeit zu verallgemeinern. Die in Abbildung 17 von Artikel 4 dargestellten

Kurvenverläufe können für rotationssymmetrische Haufwerke als Kalibrierungszielgröße

herangezogen werden. Die aus den 3D-Scans abgeleiteten Kurvenzüge beschreiben die

Haufwerksform und ermöglichen den quantitativen Vergleich zwischen physisch gemessenen

und simulativ erzeugten Haufwerken.

55

Page 76: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 77: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

5 Vergleich des Kalibrierungsverfahrens mit anderen

Ansätzen

Um das Kalibrierungsverfahren aus dieser Arbeit mit anderen Ansätzen zu vergleichen wird

eine Vergleichsstudie durchgeführt. Es werden vier Kalibrierungsansätze anhand variierender

Bedingungen untersucht. Das Studienobjekt ist das in Artikel 3 beschriebene Diskrete-Ele-

mente-Methode-Modell für die Schüttdichte ρS und den Böschungswinkel φB, mit dem Roll-

reibungskoeffizienten (Partikel/Partikel) µR und der Partikeldichte ρP als zu kalibrierenden

Größen. Die Parameterintervallgrenzen für µR werden zu [0,0005; 0,005] geändert, um den

aus Artikel 3 bekannten Ergebnissen Rechnung zu tragen.

5.1 Untersuchte Kalibrierungsansätze und Studienaufbau

Zwei der untersuchten Kalibrierungsansätze sind Kriging-Ansätze. Zum einen der Ansatz,

wie er in den Artikeln 1 bis 3 eingesetzt wurde – als Approximation (KAP) – und zum anderen

als Interpolation (KIP).

Beim dritten Ansatz wird das Metamodell durch ein künstliches neuronales Netzwerk ersetzt

(KNN). Dessen Einstellungen orientieren sich an denen von Benvenuti [Ben-16b]. Es wird

ein hidden layer mit 20 Neuronen und eine Sigmoidfunktion als Übertragungsfunktion ge-

wählt. Die Übertragung vom hidden layer zur Ergebnisausgabe erfolgt durch eine lineare

Übertragungsfunktion und als Implementierung des Netzes wird das GNU Octave-Paket

ann [Del-09] verwendet. Die Eingangsgrößen werden vor der Übergabe an das künstliche

neuronale Netz normalisiert und die Ausgangsgrößen dementsprechend zurückgerechnet.

Das training erfolgt mittels Levenberg-Marquardt-Fehlerrückführung (trainlm) und Gradi-

entenabstiegsverfahren (learngdm), mit den normalisierten, quadrierten, mittleren Fehlern

(mse) als Zielfunktion. Abbildung 5-1 zeigt das verwendete Netz für den Böschungswinkel,

welches analog für die Schüttdichte eingesetzt wird.

Wie bei den Ansätzen KIP und KAP werden auch bei KNN alle Datenpunkte zur Para-

metrierung der Metamodelle herangezogen. Während des Diskrete-Elemente-Methode-

Kalibrierungsprozesses findet keine Validierung statt. Die Überprüfung der Metamodell-

Qualität wird in einem separaten Teil dieser Studie durchgeführt.

Als vierter Ansatz wird auf ein Metamodell verzichtet (ohne) und das Diskrete-Elemente-

Methode-Kalibrierungsproblem direkt an den Levenberg-Marquardt-Algorithmus überge-

57

Page 78: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

5 Vergleich des Kalibrierungsverfahrens mit anderen Ansätzen

Abbildung 5-1: Schematische Darstellung des künstlichen neuronalen Netzes zur Berechnung des Bö-

schungswinkels. Aus Gründen der Übersichtlichkeit sind nur zehn der insgesamt 20 Neuronen

dargestellt.

ben, der auch für die zweite Optimierungsphase von KAP, KIP und KNN Verwendung

findet.

Um Zufallseffekte durch die Probennahme kontrolliert einzubeziehen und gleichzeitig die Ver-

gleichbarkeit der Kalibrierungsansätze zu gewährleisten, erfolgt die Metamodell-Parametrierung

mit 9 jeweils gleichen Datensätzen mit 6 bis 18 Datenpunkten. Diese Datensätze werden ein-

malig mittels Latin hypercube sampling erzeugt, mit dem Diskrete-Elemente-Methode-Modell

berechnet und deren Ergebnisse aufgenommen. Insgesamt müssen somit 36 Kalibrierungs-

läufe für die Kerndaten dieser Studie ausgeführt werden.

Für die Validierung der Metamodell-Qualität werden der Böschungswinkel und die Schütt-

dichte mit dem Diskrete-Elemente-Methode-Modell nochmals an 25 Punkten berechnet,

welche sich in ihrer Lage von den oben genannten Datenpunkten unterscheiden. Diese 25

Datenpunkte dienen als Referenz für die Bewertung der Vorhersagequalität der Metamodel-

le.

5.2 Ergebnisse und Diskussion

Alle 36 Kalibrierungsläufe wurden nach Meldung eines konvergierten Optimums durch den

Levenberg-Marquardt-Algorithmus nach der zweiten Optimierungsphase erfolgreich beendet.

Bei der Betrachtung der Ergebnisse ist zu beachten, dass beim Ansatz ohne Metamodell

stets dieselben Ergebnisse vorlagen.

58

Page 79: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

5.2 Ergebnisse und Diskussion

Die Verteilung der kalibrierten Werte für die Partikeldichte ρP,kal. und den Rollreibungskoeffi-

zienten µR,kal. sind in Abbildung 5-2a bzw. Abbildung 5-2b dargestellt. Ihre Verteilung passt

zu den Ergebnissen in Abbildung 4-3 (Seite 51) bzw. Artikel 3. Die kalibrierte Partikeldichte

liegt für alle Metamodell-Ansätze an der oberen Intervallgrenze bei circa 2600 kg m−3, wobei

die durchschnittliche Differenz zwischen dem Kalibrierungsergebnis und dem Zielwert der

Schüttdichte, ∆ρS , weniger als 5 % beträgt (Abbildung 5-2d). Die durchschnittliche Differenz

zum Zielwert des Böschungswinkels, ∆φB, liegt zwischen 5 % und 10 % (Abbildung 5-2c),

sodass beide Zielgrößen durch jeden untersuchten Metamodell-Ansatz mit ausreichender

Genauigkeit kalibriert wurden. Die Unterschiede zwischen den Metamodellen bei den Dif-

ferenzen zu den angestrebten Zielgrößen sind vernachlässigbar klein und deuten darauf

hin, dass sich der Einsatz von Metamodellen weder positiv noch negativ auf die erreichbare

Qualität der Kalibrierungsergebnisse auswirkt.

Es muss jedoch beachtet werden, dass Metamodelle eine Streuung in die Ergebnisse ein-

bringen, da in dem in dieser Arbeit beschriebenen Kalibrierungsverfahren der Startwert

für die zweite Optimierungsphase anhand des optimalen Parametersatzes aus dem Me-

tamodell festgelegt wird. Die Art und Parametrierung des Metamodells beeinflusst diesen

Startwert, was dazu führt, das in der zweiten Optimierungsphase andere Minima für die

Zielgrößen gefunden werden. Dies belegt wiederum die Existenz einer Lösungsvielfalt für

das untersuchte Diskrete-Elemente-Methode-Modell und das vorliegende Kalibrierungspro-

blem.

Da der Startwert für die zweite Optimierungsphase eine wichtige Rolle spielt, wurde als

Nächstes der Abstand zwischen diesem Startwert und den letztlich als Ergebnis ausgegebe-

nen Parametersatz untersucht. Die betrachteten Unterschiede wurden nach Gleichung 5-1

bzw. Gleichung 5-2 berechnet. Darin bezeichnet der Indexzusatz MM den Startwert für die

zweite Optimierungsphase, welcher dem Optimum der Metamodell-Optimierung entspricht,

und der Indexzusatz ZP den Parameter nach Abschluss der zweiten Optimierungspha-

se.

∆ρP =ρP,MM − ρP,ZP

ρP,ZP100 % (5-1)

∆µR =µR,MM − µR,ZP

µR,ZP100 % (5-2)

In Abbildung 5-3 lässt sich erkennen, dass die mittels der Metamodelle kalibrierten Parame-

tersätze weniger als 2 % vom jeweiligen finalen Parametersatz entfernt liegen und im Durch-

schnitt nur Abweichungen von einigen Zehntelprozent vorkommen. Die geringste kumulierte

Abweichung ist beim Kriging-Approximationsansatz (KAP) zu finden.

59

Page 80: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

5 Vergleich des Kalibrierungsverfahrens mit anderen Ansätzen

●●●●

2400

2450

2500

2550

2600

KAP KIP KNN ohne

Metamodell

ρ P,k

al. (

kg/m

3 )a

0.000

0.001

0.002

0.003

0.004

0.005

KAP KIP KNN ohne

Metamodell

µ R,k

al. (

−)

b

●●

0

5

10

15

KAP KIP KNN ohne

Metamodell

∆φB (

%)

c

● ● ● ●

0

5

10

15

KAP KIP KNN ohne

Metamodell

∆ρS (

%)

d

Abbildung 5-2: Boxplots zur Darstellung der Verteilung der kalibrierten Partikeldichte ρP,kal. (a) und des Roll-

reibungskoeffizienten µR,kal. (b) sowie Mittelwerte und Standardabweichungen der relativen

Differenz zwischen Kalibrierungsergebnis und Zielgröße für den Böschungswinkel ∆φB (c)

und die Schüttdichte ∆ρS (d); N = 9.

−2

−1

0

1

KAP KIP KNN

Metamodell

∆ρP (

%)

a

●●

−2

−1

0

1

KAP KIP KNN

Metamodell

∆µR (

%)

b

Abbildung 5-3: Mittelwerte und Standard-

abweichungen von ∆ρP

(a) und ∆µR (b); N = 9.

Die hohe Vorhersagegenauigkeit der Metamodelle wird durch die Ergebnisse des Vali-

dierungsteils dieser Studie unterstrichen. Mit den Metamodellen wurden die Schüttdichte

und der Böschungswinkel an 25 unbeprobten Stellen berechnet und den entsprechenden

Ergebnissen des Diskrete-Elemente-Methode-Modells gegenübergestellt. Die relative Diffe-

renz zwischen diesen Größen, mit den Diskrete-Elemente-Methode-Ergebnissen als Bezug,

ist in Abbildung 5-4 dargestellt. Die Mittelwerte liegen bei allen betrachteten Metamodel-

len sehr nahe bei Null. Für die beiden Kriging-basierten Modelle (KAP, KIP) stellt sich

jedoch eine geringfügig niedrigere Standardabweichung als für das neuronale Netz (KNN)

ein.

Die Ergebnisse in Abbildung 5-3 und Abbildung 5-4 belegen, dass alle untersuchten Metamo-

delle das vorliegende Diskrete-Elemente-Methode-Modell gut bis sehr gut repräsentieren, da

60

Page 81: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

5.2 Ergebnisse und Diskussion

● ● ●

−5.0

−2.5

0.0

2.5

5.0

KAP KIP KNN

Metamodell

∆φB

,Met

a−D

EM

(%

)

a

● ● ●

−5.0

−2.5

0.0

2.5

5.0

KAP KIP KNN

Metamodell

∆ρS

,Met

a−D

EM

(%

)

b

Abbildung 5-4: Relative Differenz des

Böschungswinkels (a)

bzw. der Schüttdichte (b)

bei Berechnung mittels

Metamodell und Diskrete-

Elemente-Methode-

Modell, ∆φB,Meta-DEM bzw.

∆ρS,Meta-DEM; dargestellt

sind Mittelwerte und

Standardabweichungen für

N = 25.

die Metamodell-Werte auch an unbeprobten Stellen nur geringfügig von den Referenzergeb-

nissen abweichen. Diese Resultate deuten an, dass die zweite Optimierungsphase entfallen

könnte, sofern kleine Abweichungen vom Optimum akzeptabel sind. Es darf an dieser Stelle

jedoch nicht vergessen werden, dass zur Validierung der Metamodell-Vorhersagequalität zu-

sätzliche Datensätze benötigt werden, welche ergänzende Berechnungsläufe des Diskrete-

Elemente-Methode-Modells erfordern. Das Weglassen der zweiten Optimierungsphase muss

mit der initialen Berechnung von mehr Datenpunkten und der Validierung der Metamodell-

Vorhersagegenauigkeit kompensiert werden. Andernfalls kann nicht ausgeschlossen werden,

dass über- oder unterangepasste Metamodelle das Diskrete-Elemente-Methode-Modell nur

schlecht repräsentieren und die Kalibrierung der Diskrete-Elemente-Methode-Parameter zu

einem unbefriedigenden Ergebnis führt.

Zum Abschluss dieser Studie wird die Effizienz der vier Kalibrierungsansätze begutachtet. In

Abbildung 5-5 findet sich eine Darstellung der Anzahl der Berechnungsläufe des Diskrete-Ele-

mente-Methode-Modells, gruppiert nach der Anzahl der Datensätze zur Parametrierung der

Metamodelle (Anz. DS). Es lässt sich erkennen, dass die Kalibrierungsansätze mit Metamo-

dell nur dann mit weniger Diskrete-Elemente-Methode-Modell-Berechnungsläufen zum Ziel

führen, wenn vorab nicht zu viele Datensätze berechnet wurden. Wie den Ergebnissen von

Artikel 3 zeigt sich, dass das Streben nach einem möglichst präzisen Metamodell Nachteile

für die Gesamteffizienz birgt. Das in dieser Arbeit vorgeschlagene zweistufige Kalibrierungs-

verfahren mit Metamodell ist dem direkten Optimierungsalgorithmus bei 6 Datensätzen (drei

pro zu kalibrierendem Parametern) deutlich überlegen.

Beim Vergleich innerhalb der Gruppe der Metamodelle zeigt sich, dass das Kriging-Metamodell

mit Interpolation (KIP) etwas schneller als das Modell mit Approximation (KAP) zum Ab-

schluss der zweiten Optimierungsphase führt. Dieses Ergebnis deckt sich mit den theoreti-

schen Überlegungen in Abschnitt 2.4.

61

Page 82: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

5 Vergleich des Kalibrierungsverfahrens mit anderen Ansätzen

Bei KAP und KIP sind fünf bis sieben Diskrete-Elemente-Methode-Modell-Berechnungsläufe

mehr nötig als beim künstlichen neuronalen Netz (KNN). Für den eingesetzten Levenberg-

Marquardt-Algorithmus entspricht das im Rahmen dieser Studie circa einem Iterationsschritt.

Obwohl die Kriging-Metamodelle also eine ähnlich gute Repräsentation des Diskrete-Elemen-

te-Methode-Modells aufweisen und bei Böschungswinkel und Schüttdichte sogar geringfügig

verlässlichere Werte zurückgeben, führen die Startwerte aus KNN zum schnelleren Ab-

schluss des Kalibrierungsprozesses.

20

30

40

KAP KIP KNN ohne

Metamodell

Anz

. DE

M−

Läuf

e (−

)

Anz. DS● 6

12

18

Abbildung 5-5: Mittelwerte und Standard-

abweichungen der Anzahl

der Berechnungsläufe

des Diskrete-Elemente-

Methode-Modells; Anz. DS:

Anzahl der zur Metamodell-

Parametrierung einge-

setzten Datensätze;

N = 3.

Der Grund für die bessere Gesamteffizienz des KNN-Metamodells lässt sich in dieser Stelle

nicht konkret feststellen. Da alle untersuchten Metamodelle bei den absoluten Vorhersage-

werten ähnliche Resultate aufweisen, sind die maßgeblichen Effekte mit hoher Wahrschein-

lichkeit auf einer anderen Ebene zu finden. Da sich der verwendete Optimierungsalgorithmus

auf Gradienten verlässt, kann die Theorie aufgestellt werden, dass beim KIP- und KAP-

Ansatz diesbezüglich eine weniger genaue Abbildung als bei KNN erreicht wird. Dies würde

sodann dazu führen, dass weniger geeignete Startwerte an die zweite Optimierungsphase

übergeben werden. Ein Indiz, welches zu dieser Theorie passen könnte, ist die größere

Streuung der kalibrierten Rollreibungskoeffizienten (siehe Abbildung 5-2b). In diesem Fall

wäre die Streuung so zu deuten, dass das KIP- bzw. KAP-Metamodell in Verbindung mit

dem gradientenabhängigen Optimierungsalgorithmus zu einer inkonsistenten Bestimmung

der Lage von Optima tendiert. Dieser Nachteil könnte jedoch durch den Einsatz eines gradi-

entenunabhängigen Optimierungsalgorithmus behoben werden. Eine Verbesserung kann

gegebenenfalls auch durch Verwendung einer anderen Kovarianzfunktion für das Kriging-

Metamodell erreicht werden, z. B. exponentiell oder sphärisch.

5.3 Fazit zum Vergleich mit anderen Ansätzen

Der Vergleich des vorgeschlagenen zweistufigen Kalibrierungsverfahrens mit der direkten

Anwendung eines Optimierungsalgorithmus belegt den erwarteten Vorteil bei der Reduzie-

62

Page 83: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

5.3 Fazit zum Vergleich mit anderen Ansätzen

rung der benötigten Diskrete-Elemente-Methode-Modell-Berechnungsläufe. Dieser Vorteil

geht jedoch verloren, wenn versucht wird, das Metamodell mit vielen Datensätzen zu ge-

nau zu parametrieren. Im Rahmen dieser Studie konnte bereits mit 3 Datensätzen pro

zu kalibrierendem Diskrete-Elemente-Methode-Parameter der gewünschte Effekt erreicht

werden.

Die Auswahl des Metamodells muss mit der Art des in der ersten Optimierungsphase ein-

gesetzten Optimierungsalgorithmus abgestimmt werden. In zukünftigen Arbeiten sollte in

dieser Phase ein gradientenunabhängiger Algorithmus Verwendung finden, der innerhalb

der vorgegebenen Parameterintervalle nach globalen Optima sucht. Hierfür kommen bei-

spielsweise genetische Algorithmen oder simulated annealing in Frage. Ihr hoher Bedarf an

Zielfunktionsauswertungen fällt bei den kurzen Berechnungsdauern eines Metamodells im

Vergleich mit den zeitaufwändigen Diskrete-Elemente-Methode-Modell-Berechnungen kaum

ins Gewicht. Des Weiteren stünde dann für die zweite Optimierungsphase ein Startwert

nahe des globalen Optimums zur Verfügung.

Eine Limitierung des Kalibrierungsverfahrens, die auch durch diese Maßnahmen beste-

hen bleibt, ist, dass die Anzahl der für die Metamodell-Parametrierung zu berechnenden

Datensätze durch einen Menschen festgelegt werden muss. Wie viele Datensätze pro zu

kalibrierendem Diskrete-Elemente-Methode-Parameter vorab berechnet werden müssen

hängt von der Anzahl, Art und Komplexität der simulierten Anwendungen ab und ist ohne

Vorerfahrung nur schwer abzuschätzen.

Diese Limitierung kann aufgehoben werden, indem die aus den Kriging-Metamodellen

verfügbare Varianzschätzung eingesetzt wird. Mit ihrer Hilfe kann ein Optimierungsprozess

umgesetzt werden, der zwischen Diskrete-Elemente-Methode- und Metamodell arbeitet

und mit neuen Datenpunkten aus dem Diskrete-Elemente-Methode-Modell das Metamodell

sukzessive verbessert. Einer dieser Algorithmen ist in der Literatur als efficient global

optimization (EGO) bekannt und arbeitet mit einer Größe, die als expected improvement

(EI) bezeichnet wird. Nach einer initialen Parametrierungsphase erfolgt die Berechnung an

den Stellen mit dem maximalen EI, bis Letzterer unter einen Schwellenwert fällt und keine

weitere Verbesserung zu erwarten ist [Jon-98; Sve-16]. In der erst kürzlich veröffentlichten

Arbeit von Bednarek et al. [Bed-17] wird ein solches Verfahren erfolgreich mit dem Diskrete-

Elemente-Methode-Modell eines Scherversuchs getestet. In diesem kurzen Artikel erfolgte

jedoch keine Bewertung der Effizienz.

Durch Anwendung des EGO-Algorithmus reicht initial eine sehr kleine Anzahl an Daten-

sätzen zur Parametrierung des Kriging-Metamodells aus. Sie wird im Verlauf des Ka-

63

Page 84: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

5 Vergleich des Kalibrierungsverfahrens mit anderen Ansätzen

librierungsprozesses sukzessive an den Stellen mit der maximalen EI verbessert, so-

dass sich die Anzahl der Diskrete-Elemente-Methode-Berechnungsläufe anhand der vor-

liegenden Problemstellung ergibt und nicht durch einen Benutzer vorgegeben werden

muss.

64

Page 85: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

6 Fazit und Ausblick

Die Kalibrierung von Material- und Kontaktparametern zieht sich konsequent durch die

gesamte Anwendung der Diskrete-Elemente-Methode für industrierelevante Probleme. Diese

Dissertation beschäftigte sich mit einem systematischen Ansatz zur Kalibrierung von Diskrete-

Elemente-Methode-Parametern. Das Hauptziel der vorliegenden Arbeit war die Entwicklung

und Verifizierung eines systematischen und automatisierbaren Diskrete-Elemente-Methode-

Kalibrierungsverfahrens.

6.1 Fazit

Das Kalibrierungsverfahren basiert auf vier Hauptmerkmalen. Es erlaubt die gleichzeitige

Kalibrierung einer beliebigen Anzahl von Diskrete-Elemente-Methode-Parametern und -Mo-

dellen bzw. Zielgrößen (I). In Kombination mit der Erweiterbarkeit und Modularität (II) kann

das Verfahren auf umfangreiche und komplexe Kalibrierungsprobleme angewandt werden

und erlaubt die Einbindung von anwendungsspezifischen Diskrete-Elemente-Methode-Mo-

dellen. Zwei weitere Merkmale sind die Robustheit und Effizienz des Kalibrierungsverfahrens

(III) sowie die numerische Effizienz der kalibrierten Diskrete-Elemente-Methode-Parame-

tersätze durch aktive Berücksichtigung des Rayleigh-Zeitschritts (IV). Durch die Implemen-

tierung des methodischen Kalibrierungsverfahrens in einem robusten und automatisch

ablaufenden Prozess konnte die Komplexität bei der Anwendung deutlich reduziert wer-

den.

Die beiden ersten Säulen wurden auf softwaretechnischer Seite umgesetzt. Dabei wurde

darauf geachtet, dass das Kalibrierungsverfahren ausschließlich mit frei verfügbarer Softwa-

re umgesetzt wird. Der eingesetzte Diskrete-Elemente-Methode-Code LIGGGHTS [Klo-12]

ist ebenso open-source wie GNU Octave [Eat-15], welches an MATLAB [MAT-16] angelehnt

ist und zur Ablaufsteuerung sowie zur Datenverarbeitung eingesetzt wird. Der open-source-

Gedanke wurde durch die Veröffentlichung des Quellcodes des Kalibrierungsverfahrens auf

GitHub [Rac-17d] konsequent fortgesetzt. Interessierte Unternehmen und Forschungsein-

richtungen dürfen den Code unter den Bedingungen der General Public License Version

3 (GPL v3) [Fre-17] kostenlos nutzen und haben die Möglichkeit, das Verfahren an eigene

Bedürfnisse anzupassen und weiterzuentwickeln.

Die dritte und vierte Säule waren Gegenstand der im Hauptteil (Kapitel 4) eingebundenen Ar-

tikel 1 bis 3. Das Kalibrierungsverfahren konnte erfolgreich umgesetzt, getestet und verifiziert

werden. Seine Effektivität, Effizienz und die Auswirkungen der aktiven Berücksichtigung des

65

Page 86: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

6 Fazit und Ausblick

Rayleigh-Zeitschritts wurden dargelegt und diskutiert. Es wurde gezeigt, dass der beschrie-

bene Kalibrierungsansatz mittels der Implementierung des Rayleigh-Zeitschritts das Problem

der Lösungsvielfalt beheben kann und gleichzeitig zu Parametersätzen führt, die zur Redu-

zierung des numerischen Berechnungsaufwands beitragen.

Die Verifikation des Kalibrierungsverfahrens wurde im Rahmen dieser Arbeit mit einem

kohäsionslosen Schüttgut ohne Vorverfestigung durchgeführt. Diskrete-Elemente-Methode-

Parameter können jedoch nachweislich für die verschiedensten Schüttguteigenschaften

und -anwendungen erfolgreich kalibriert werden (z. B. [Bel-09; Coe-10; Uba-16; Rac-17e;

Coe-17; Gau-17; Sin-17]). Es ist deshalb davon auszugehen, dass das Verfahren für eine

Vielzahl von Diskrete-Elemente-Methode-Kalibrierungsaufgaben verwendet werden kann.

Insbesondere ist es für beliebige Diskrete-Elemente-Methode-Modelle einsetzbar, da keine

Restriktionen bezüglich der Auswahl von materialbezogenen Parametern oder Zielgrößen

vorliegen.

Wegen der Umsetzung als automatisch ablaufendes und robustes Verfahren werden ein-

deutige Vorteile gegenüber dem unstrukturierten und strukturierten Vorgehen erwartet.

Zum einen wird dies durch die Berücksichtigung des Rayleigh-Zeitschritts und den Einsatz

von Metamodellen und Optimierung erreicht. Zum anderen kann das Verfahren Anwender

deutlich entlasten, da es durch seinen automatischen Ablauf die Kalibrierung selbststän-

dig durchführt. Die Effizienz des Verfahrens ist also nicht auf den direkten Vergleich der

Anzahl der Berechnungsläufe während der Kalibrierung beschränkt, sondern zeigt sich

auch in der Reduzierung des Personalaufwands bei wiederkehrenden Kalibrierungsaufga-

ben.

Das Kalibrierungsverfahren erfordert die Festlegung von Intervallen für die zur Kalibrierung

freigegebenen Material- und Kontaktparameter, um daraus Probenpunkte zu bestimmen.

Dieser Ansatz, Ober- und Untergrenzen für diese Parameter definieren zu müssen, ist dabei

keineswegs nachteilig für den Kalibrierungsprozess, sondern entspricht dem Vorgehen bei

der konventionellen Kalibrierung bei der Diskrete-Elemente-Methode. Werden zum Beispiel

Werte für die interessierenden Materialparameter in der Literatur recherchiert, wird man stets

einen Wertebereich vorfinden; auch bei den Kontaktparametern sind Wertebereiche unum-

gänglich, wenn z. B. der Rollreibungskoeffizient zur Modellierung der Partikelform eingesetzt

wird. In diesem Fall kann dem Reibungskoeffizienten a priori kein Wert zugeordnet werden,

jedoch ist es wichtig, seinen Wertebereich auf physikalisch sinnvolle Werte zu beschränken,

um einen angemessenen Parametersatz zu erhalten.

66

Page 87: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

6.2 Ausblick

Die Anwendung des Verfahrens kann äußerst flexibel erfolgen. Der modulare Aufbau erlaubt

es, dass Diskrete-Elemente-Methode-Modelle bzw. Zielgrößen auch nachträglich in die

Kalibrierung eingebunden werden können. Dies ist z. B. dann relevant, wenn Messdaten

aus Versuchen erst nach und nach verfügbar sind, aber bereits früh mit dem Einsatz der

Diskrete-Elemente-Methode begonnen werden soll. So können Diskrete-Elemente-Methode-

Parametersätze auch nachträglich für eine steigende Anzahl von Anwendungsfällen kalibriert

werden, ohne dabei die bestehenden Versuchsdaten vernachlässigen zu müssen. Zur

Kalibrierung sollten stets alle verfügbaren und relevanten Daten herangezogen werden, die

für das betreffende Schüttgut vorliegen.

Die Eignung des Böschungswinkels als Zielgröße für die Kalibrierung von Diskrete-Elemente-

Methode-Parametersätzen konnte bestätigt werden. Gleichwohl wurde belegt, dass der

Böschungswinkel nicht für alle kohäsionslosen Schüttgüter uneingeschränkt anwendbar ist.

Sind die Abweichungen des aufgeschütteten Haufwerks von einem Kegel zu groß, muss da-

von ausgegangen werden, dass die kontinuumsmechanischen Annahmen, z. B. durch sehr

breite Partikelgrößenverteilungen oder das gegenseitige Verhaken von Partikeln, verletzt wur-

den. Falls der Böschungswinkel an einem solchen nicht-kegelförmigen Haufwerk gemessen

wird und ohne Hinweis auf die tatsächliche Haufwerksform weitergegeben wird, ergeben sich

Probleme bei den nachfolgenden Prozessen, die auf diesem Kennwert aufbauen. Eine Folge

wäre beispielsweise, dass bei der Kalibrierung von Diskrete-Elemente-Methode-Parametern

ein idealer Kegel als Haufwerksform angestrebt wird. Dies ist eine valide Annahme, sofern

einzig der Böschungswinkel bekannt ist, spiegelt jedoch nicht die tatsächlichen Verhältnisse

bei der zu Grunde liegenden Messung wider.

Das bedeutet nicht zwingend, dass der so gemessene Böschungswinkel nicht für die Kalibrie-

rung eingesetzt werden kann. Jedoch darf in diesem Fall nicht von einer Kalibrierung über

den Böschungswinkel gesprochen werden. Vielmehr müssen andere Größen herangezogen

werden, um das entstandene, nicht kegelförmige, Haufwerk quantitativ zu beschreiben und

mit Simulationsdaten vergleichbar zu machen. Ein entsprechendes Vergleichsverfahren

für Haufwerksformen, basierend auf dreidimensionalen Oberflächenscans, ist in Artikel 4

beschrieben.

6.2 Ausblick

Im Zuge dieser Dissertation konnte die Hauptfunktionalität des Kalibrierungsverfahrens

erfolgreich verifiziert werden. Zukünftige Studien sollten weitere Aspekte des Verfahrens

67

Page 88: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

6 Fazit und Ausblick

untersuchen und die konkrete Standardisierung von schüttgutbezogenen Kenngrößen voran-

treiben.

Zum ersten sollte das entwickelte Kalibrierungsverfahren auf verschiedene Kalibrierungs-

probleme angewandt werden. Um die Nützlichkeit des Verfahrens zu bestätigen, soll da-

bei eine Vielzahl an unterschiedlichen Diskrete-Elemente-Methode-Modellen und Zielgrö-

ßen betrachtet werden. Neben der erweiterten Verifizierung der Hauptfunktion des Ver-

fahrens muss auch die Effizienz des Kalibrierungsprozesses erfasst und verbessert wer-

den. In den bisherigen Studien konnte ein großer Anteil der Diskrete-Elemente-Methode-

Berechnungsläufe auf die Gradientenberechnung des verwendeten Levenberg-Marquardt-

Optimierungsalgorithmus zurückgeführt werden. Die Verringerung der Anzahl der Diskrete-

Elemente-Methode-Berechnungsläufe ist besonders im Hinblick auf die Kalibrierung von meh-

reren Diskrete-Elemente-Methode-Modellen wichtig. Jedes eingebundene Modell muss pro

Diskrete-Elemente-Methode-Berechnungslauf einmal berechnet werden, sodass die Summe

der Berechnungsläufe für jedes zusätzliche Diskrete-Elemente-Methode-Modell linear an-

steigt. Das Zusammenspiel aus der Anzahl an Probenpunkten, welche die Genauigkeit der

Kriging-Modelle beeinflusst, und eingesetztem Optimierungsalgorithmus ist von entscheiden-

der Bedeutung für die Effizienz des Kalibrierungsverfahrens.

Auch sollte der Einsatz von unterschiedlichen Optimierungsalgorithmen für die erste und

zweite Optimierungsphase in Betracht gezogen werden, da sich der Berechnungsaufwand in

diesen beiden Phasen gravierend voneinander unterscheidet. Die Einbindung eines Optimie-

rungsalgorithmus zur Suche von globalen Optima erscheint vielversprechend, muss jedoch

gegen den ggf. höheren Berechnungsaufwand abgewogen werden. Zum Auffinden eines

globalen Optimums könnten berechnungsaufwändige Verfahren beispielsweise zunächst auf

die erste Optimierungsphase beschränkt werden. Weiteres Potenzial hinsichtlich der Automa-

tisierung des Kalibrierungsverfahrens ist durch den Einsatz des efficient global optimization-

Algorithmus (EGO) möglich. Durch Anwendung des EGO-Algorithmus reicht initial eine sehr

kleine Anzahl an Datensätzen zur Parametrierung des Kriging-Metamodells aus. Sie wird im

Verlauf des Kalibrierungsprozesses sukzessive verbessert, sodass sich die Anzahl der Dis-

krete-Elemente-Methode-Berechnungsläufe anhand der vorliegenden Problemstellung ergibt.

Für das in dieser Arbeit beschriebene Kalibrierungsverfahren ist dies der nächsten sinnvolle

Schritt, mit dem die Automatisierung unter Beibehaltung der Robustheit vorangetrieben

werden kann und welcher in Zukunft verfolgt werden sollte.

Zum zweiten muss die Standardisierung von schüttgutbezogenen Kenngrößen und ent-

sprechenden Messverfahren vorangetrieben werden. Messdaten bilden das Rückgrat der

68

Page 89: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

6.2 Ausblick

Diskrete-Elemente-Methode-Kalibrierung, jedoch können viele der in der Literatur verfügba-

ren Daten nicht uneingeschränkt weiterverwendet werden. Dies rührt daher, dass die konkret

verwendeten Messverfahren, z. B. zur Bestimmung des Böschungswinkels, unerwähnt blei-

ben oder immer wieder neue, einzigartige Messvorrichtungen zum Einsatz kommen. Aus

Artikel 4 ist ersichtlich, dass die Messung von Schüttgut-Kennwerten große Sorgfalt erfordert

und sich Messverfahren, die auf Annahmen aus der Kontinuumsmechanik basieren, nicht

uneingeschränkt auf alle Schüttgüter verallgemeinern lassen. Zur Erhöhung der Wiederver-

wendbarkeit von Messdaten wäre es bereits hilfreich, wenn in Veröffentlichungen konsequent

darauf geachtet werden würde, dass die zu Grunde liegenden Verfahren ausreichend ge-

nau beschrieben werden, um so tatsächlich Vergleichbarkeit mit anderen Messdaten zu

ermöglichen.

Um Diskrete-Elemente-Methode-Parametersätze schneller kalibrieren zu können, bedarf es

einheitlicher Messverfahren, welche voneinander unabhängig sind und für eine große Vielfalt

von Schüttgütern anwendbar bzw. anpassbar sind. Die Messverfahren müssen so flexibel

gestaltet sein, dass weder die absoluten Partikelgrößen oder breite Partikelgrößenvertei-

lungen noch stark kohäsive Eigenschaften ein Ausschlusskriterium für die Messung sind.

Basierend auf solchen einheitlichen Messvorrichtungen können schließlich dazu passende

Diskrete-Elemente-Methode-Modelle erzeugt werden und mit entsprechender Parametri-

sierung, beispielsweise von geometrischen Abmessungen, wiederkehrend zur Kalibrierung

eingesetzt werden.

Bezüglich der Diskrete-Elemente-Methode-Parametersätze muss erwähnt werden, dass

diese oft nur für eine spezifische Anwendungssituation gültig sind. Sofern sich Umgebungs-

bedingungen auf die mechanischen Eigenschaften eines Schüttguts auswirken, muss ein

neuer Parametersatz gefunden werden, der die geänderten Eigenschaften abbildet. Ein

Beispiel dafür ist die Luftfeuchtigkeit, deren Fallen bzw. Ansteigen den Wassergehalt in

Pulvern beeinflusst und zur Zu- bzw. Abnahme von Schüttdichte und Kohäsion führt. Der

Wassergehalt in den Partikeln wird in den zur Zeit verfügbaren Diskrete-Elemente-Methode-

Materialmodellen nicht berücksichtigt, sodass je nach Wassergehalt ein anderer Diskrete-

Elemente-Methode-Parametersatz nötig sein kann, um präzise Simulationsergebnisse zu

erzielen. Aus diesem Grund wird die Kalibrierung von materialbezogenen Diskrete-Elemente-

Methode-Parametern auch in der Zukunft einen Kernaspekt bei der Anwendung dieser

Simulationsmethode darstellen.

69

Page 90: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 91: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Literaturverzeichnis

[Ai-11] Ai, J.; Chen, J.-F.; Rotter, J.; Ooi, J.: „Assessment of rolling resistance modelsin discrete element simulations“. In: Powder Technology 206.3 (2011), S. 269–282.

[Asa-07] Asaf, Z.; Rubinstein, D.; Shmulevich, I.: „Determination of discrete elementmodel parameters required for soil tillage“. In: Soil and Tillage Research 92.1-2(2007), S. 227–242.

[Ash-15] Asher, M. J.; Croke, B. F. W.; Jakeman, A. J.; Peeters, L. J. M.: „A review ofsurrogate models and their application to groundwater modeling“. In: WaterResources Research 51.8 (2015), S. 5957–5973.

[Bak-01] Bakr, M. H.; Bandler, J. W.; Madsen, K.; Søndergaard, J.: „An Introduction tothe Space Mapping Technique“. In: Optimization and Engineering 2.4 (2001),S. 369–384.

[Bar-13] Barrios, G. K.; Carvalho, R. M. de; Kwade, A.; Tavares, L. M.: „Contact para-meter estimation for DEM simulation of iron ore pellet handling“. In: PowderTechnology 248 (2013), S. 84–93.

[Bed-17] Bednarek, X.; Martin, S.; Ndiaye, A.; Peres, V.; Bonnefoy, O.: „Calibration ofDEM parameters on shear test experiments using Kriging method“. In: EPJWeb of Conferences 140 (2017), S. 15016.

[Bel-09] Belheine, N.; Plassiard, J.-P.; Donz, F.-V.; Darve, F.; Seridi, A.: „Numericalsimulation of drained triaxial test using 3D discrete element modeling“. In:Computers and Geotechnics 36.1-2 (2009), S. 320–331.

[Ben-16a] Benvenuti, L.: „Identification of DEM Simulation Parameters by Artificial NeuralNetworks and Bulk Experiments“. Dissertation. Linz: Johannes Kepler Universi-tät, 2016.

[Ben-16b] Benvenuti, L.; Kloss, C.; Pirker, S.: „Identification of DEM simulation parametersby Artificial Neural Networks and bulk experiments“. In: Powder Technology291 (2016), S. 456–465.

[Bha-10] Bharadwaj, R.; Ketterhagen, W. R.; Hancock, B. C.: „Discrete element simulationstudy of a Freeman powder rheometer“. In: Chemical Engineering Science 65.21(2010), S. 5747–5756.

[Bie-09] Bierwisch, C.; Kraft, T.; Riedel, H.; Moseler, M.: „Three-dimensional discreteelement models for the granular statics and dynamics of powders in cavityfilling“. In: Journal of the Mechanics and Physics of Solids 57.1 (2009), S. 10–31.

[CFD-17a] CFDEMresearch GmbH: LIGGGHTS Benutzerhandbuch: Beschreibung des im-plementierten Hertz-Mindlin-Kontaktmodells. 2017. URL: http://www.cfdem.com/media/DEM/docu/gran_model_hertz.html (besucht am 08. 05. 2017).

[CFD-17b] CFDEMresearch GmbH: LIGGGHTS Benutzerhandbuch: Beschreibung desRollreibungsmodells EPSD2. 2017. URL: http://www.cfdem.com/media/DEM/docu/gran_rolling_friction_epsd2.html (besucht am 20. 05. 2017).

[Coe-16] Coetzee, C. J.: „Calibration of the discrete element method and the effect ofparticle shape“. In: Powder Technology 297 (2016), S. 50–70.

71

Page 92: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

LITERATURVERZEICHNIS

[Coe-17] Coetzee, C. J.: „Review: Calibration of the discrete element method“. In: PowderTechnology 310 (2017), S. 104–142.

[Coe-09] Coetzee, C. J.; Els, D.: „Calibration of discrete element parameters and themodelling of silo discharge and bucket filling“. In: Computers and Electronics inAgriculture 65.2 (2009), S. 198–212.

[Coe-10] Coetzee, C. J.; Els, D.; Dymond, G. F.: „Discrete element parameter calibrationand the modelling of dragline bucket filling“. In: Journal of Terramechanics 47.1(2010), S. 33–44.

[Cun-71] Cundall, P. A.: „A computer model for simulating progressive, large scale move-ments in blocky rock systems“. In: Proceedings of the International Symposiumon Rock Fracture. Hrsg. von International Society for Rock Mechanics. Bd. 1.1971, S. 129–136.

[Cun-79] Cundall, P. A.; Strack, O. D. L.: „A discrete numerical model for granular assem-blies“. In: Géotechnique 29.1 (1979), S. 47–65.

[Cur-09] Curry, D.; Favier, J.; LaRoche, R. D.: „A systematic approach to DEM materialmodel calibration“. In: 6th International Conference for Conveying and Handlingof Particulate Solids. (Brisbane, 3.–7. Aug. 2009). Hrsg. von Wypych, P. W.Barton: 2009, S. 47–50.

[Del-09] Delacour, X.; weitere Autoren: ann version 1.0.2: A wrapper for the ANN li-brary. 2009. URL: https://octave.sourceforge.io/ann/ (besucht am01. 08. 2017).

[Deu-83] Deutsches Institut für Normung: ISO 4324: Tenside: Pulver und Granulate -Bestimmung des Schüttwinkels. Dezember 1983.

[Deu-96] Deutsches Institut für Normung: EN 12047: Feste Düngemittel: Messung desstatischen Schüttwinkels. November 1996.

[DiR-04] Di Renzo, A.; Di Maio, F. P.: „Comparison of contact-force models for the simula-tion of collisions in DEM-based granular flow codes“. In: Chemical EngineeringScience 59.3 (2004), S. 525–541.

[DiR-05] Di Renzo, A.; Di Maio, F. P.: „An improved integral non-linear model for thecontact of particles in distinct element simulations“. In: Chemical EngineeringScience 60.5 (2005), S. 1303–1312.

[Do-17] Do, H. Q.; Aragón, A. M.; Schott, D. L.; Radjai, F.; Nezamabadi, S.; Luding, S.;Delenne, J. Y.: „Automated discrete element method calibration using geneticand optimization algorithms“. In: EPJ Web of Conferences 140 (2017), S. 15011.

[Dur-00] Duran, J.: Sands, Powders, and Grains: An Introduction to the Physics ofGranular Materials. Partially Ordered Systems. Springer, New York, NY: 2000.

[Eat-15] Eaton, J. W.; Bateman, D.; Hauberg, S.; Wehbring, R.: GNU Octave version4.0.0 manual: a high-level interactive language for numerical computations.2015.

[Els-17] Elskamp, F.; Kruggel-Emden, H.; Hennig, M.; Teipel, U.: „A strategy to determineDEM parameters for spherical and non-spherical particles“. In: Granular Matter19.3 (2017), S. 208.

72

Page 93: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

LITERATURVERZEICHNIS

[eur-17a] eurostat: Maritime transport of goods - quarterly data. 2017. URL: http://ec.europa.eu/eurostat/statistics-explained/index.php/Maritime_transport_of_goods_-_quarterly_data (besucht am 08. 05. 2017).

[eur-17b] eurostat: Road freight transport by type of goods. 2017. URL: http://ec.europa.eu/eurostat/statistics-explained/index.php/Road_freight_transport_by_type_of_goods#Road_freight_transport_by_type_of_cargo (besucht am 08. 05. 2017).

[Fah-16] Fahrmeir, L.; Heumann, C.; Künstler, R.: Statistik. 8., überarbeitete und ergänzteAuflage. Springer-Lehrbuch. 2016.

[Fak-07] Fakhimi, A.; Villegas, T.: „Application of Dimensional Analysis in Calibrationof a Discrete Element Model for Rock Deformation and Fracture“. In: RockMechanics and Rock Engineering 40.2 (2007), S. 193–211.

[Fav-10] Favier, J.; Curry, D.; LaRoche, R. D.: „Calibration of DEM Material Models toApproximate Bulk Particle Characteristics“. In: Proceedings: WCPT6 - WorldCongress on Particle Technology 6. (Nürnberg, 26.–29. Apr. 2010). 2010.

[Fed-91] Federation Europeenne de la Manutention: FEM 2582: Allgemeine Schüttgutei-genschaften und ihre Darstellung in Kurzform. November 1991.

[Fed-97] Federation Europeenne de la Manutention: FEM 2481: Spezifische Schüttgutei-genschaften bei der pneumatischen Förderung. Juli 1997.

[For-08] Forrester, A. I. J.; Sóbester, A.; Keane, A. J.: Engineering design via surrogatemodelling: A practical guide. Wiley, Hoboken, N.J und Chichester: 2008.

[Fra-07] Fraczek, J.; Zlobecki, A.; Zemanek, J.: „Assessment of angle of repose ofgranular plant material using computer image analysis“. In: Journal of FoodEngineering 83.1 (2007), S. 17–22.

[Fra-13] Frankowski, P.; Paulick, M.; Combarros, M.; Simons, T.; Kwade, A.; Schilling,M.; Feise, H. J.; Morgeneyer, M.: „Material Characterisation for Discrete Ele-ment Modelling Calibration“. In: Particle-based methods III.Fundamentals andapplications ; Proceedings of the III International Conference on Particle-BasedMethods, Fundamentals and Applications (Particles 2013), Stuttgart, 18. - 20.September 2013. Hrsg. von Bischoff, M. CIMNE, Barcelona: 2013, S. 375–383.

[Fre-17] Free Software Foundation, Hrsg.: GNU General Public License (Version 3).2017. URL: http : / / www . gnu . org / licenses / gpl . html (besucht am20. 04. 2017).

[Gau-17] Gaume, J.; Herwijnen, A. van; Chambon, G.; Wever, N.; Schweizer, J.: „Snowfracture in relation to slab avalanche release: critical state for the onset of crackpropagation“. In: The Cryosphere 11.1 (2017), S. 217–228.

[Gon-12] González-Montellano, C.; Gallego, E.; Ramírez-Gómez, Á.; Ayuga, F.: „Threedimensional discrete element models for simulating the filling and emptying ofsilos: Analysis of numerical results“. In: Computers & Chemical Engineering 40(2012), S. 22–32.

[Gon-11] González-Montellano, C.; Ramírez, Á.; Gallego, E.; Ayuga, F.: „Validation andexperimental calibration of 3D discrete element models for the simulation ofthe discharge flow in silos“. In: Chemical Engineering Science 66.21 (2011),S. 5116–5126.

73

Page 94: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

LITERATURVERZEICHNIS

[Gor-09] Gorissen, D.; Dhaene, T.; Turck, F. D.: „Evolutionary Model Type Selectionfor Global Surrogate Modeling“. In: Journal of Machine Learning Research 10(2009), S. 2039–2078.

[Gri-09] Grima, A. P.; Wypych, P. W.: „Investigations into Calibration for Discrete ElementModelling of Granular Materials“. In: 6th International Conference for Conveyingand Handling of Particulate Solids. (Brisbane, 3.–7. Aug. 2009). Hrsg. vonWypych, P. W. Barton: 2009, S. 65–72.

[Gri-10] Grima, A. P.; Wypych, P. W.: „Discrete element simulation of a conveyor impact-plate transfer: calibration, validation and scale-up“. In: Australian Bulk HandlingReview May/June (2010), S. 64–72.

[Gri-11] Grima, A. P.; Wypych, P. W.: „Development and validation of calibration methodsfor discrete element modelling“. In: Granular Matter 13.2 (2011), S. 127–132.

[Gün-17] Günthner, W.; Fottner, J.; Kessler, S.; Otto, H.; Rackl, M.: Abschlussbericht:DEM-Schüttgutdatenbank – Generierung einer Datenbank zur Kalibrierungvon Schüttgütern für die DEM-Simulation von Förderanlagen. Lehrstuhl fürFördertechnik Materialfluss Logistik, Technische Universität München, Garching:2017.

[Han-11a] Hanley, K. J.: „Experimental quantification and modelling of attrition of infantformulae during pneumatic conveying“. Dissertation. Cork: University CollegeCork, 2011.

[Han-11b] Hanley, K. J.; O’Sullivan, C.; Oliveira, J. C.; Cronin, K.; Byrne, E. P.: „Applicationof Taguchi methods to DEM calibration of bonded agglomerates“. In: PowderTechnology 210.3 (2011), S. 230–240.

[Här-15] Härdle, W. K.; Klinke, S.; Rönz, B.: Introduction to Statistics. 1st ed. 2015.Springer International Publishing, Cham: 2015.

[Her-82] Hertz, H.: „Ueber die Berührung fester elastischer Körper“. In: Journal für diereine und angewandte Mathematik 92 (1882), S. 156–171.

[Heß-16] Heß, G.; Richter, C.; Katterfeld, A.: „Simulation of the dynamic interactionbetween bulk material and heavy equipment: Calibration and validation“. In:ICBMH 2016. Hrsg. von Hastie, D. The Institution of Engineers, Australia: 2016,S. 427–436.

[Hof-05] Hofmann, M.: „On the Complexity of Parameter Calibration in Simulation Mo-dels“. In: The Journal of Defense Modeling and Simulation: Applications, Me-thodology, Technology 2.4 (2005), S. 217–226.

[Joh-71] Johnson, K. L.; Kendall, K.; Roberts, A. D.: „Surface Energy and the Contactof Elastic Solids“. In: Proceedings of the Royal Society of London. Series A,Mathematical and Physical Sciences 324.1558 (1971), S. 301–313.

[Joh-10] Johnstone, M. W.: „Calibration of DEM models for granular materials using bulkphysical tests“. Dissertation. Edinburgh, Scotland, United Kingdom: Universityof Edinburgh, 2010.

[Jon-98] Jones, D. R.; Schonlau, M.; Welch, W. J.: „Efficient Global Optimization ofExpensive Black-Box Functions“. In: Journal of Global Optimization 13.4 (1998),S. 455–492.

74

Page 95: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

LITERATURVERZEICHNIS

[Klo-12] Kloss, C.; Goniva, C.; Hager, A.; Amberger, S.; Pirker, S.: „Models, algorithmsand validation for opensource DEM and CFD-DEM“. In: Progress in Computa-tional Fluid Dynamics, An International Journal 12.2/3 (2012), S. 140.

[Kru-15] Kruse, R.; Borgelt, C.; Braune, C.; Klawonn, F.; Moewes, C.; Steinbrecher,M.: Computational Intelligence: Eine methodische Einführung in künstlicheneuronale Netze, evolutionäre Algorithmen, Fuzzy-Systeme und Bayes-Netze.2., überarbeitete und erweiterte Auflage. Computational Intelligence. SpringerVieweg, Wiesbaden: 2015.

[KSK-76] KS Korean Industrial Standards: ISO 902: Aluminium oxide primarily used forthe production of aluminiun - Measurement of the angle of repose. September1976.

[Lom-14] Lommen, S.; Schott, D.; Lodewijks, G.: „DEM speedup: Stiffness effects onbehavior of bulk material“. In: Particuology 12 (2014), S. 107–112.

[Mar-15] Marigo, M.; Stitt, E. H.: „Discrete Element Method (DEM) for Industrial Applicati-ons: Comments on Calibration and Validation for the Modelling of CylindricalPellets“. In: KONA Powder and Particle Journal 32.0 (2015), S. 236–252.

[MAT-16] MATLAB. The MathWorks Inc, Natick, Massachusetts: 2016.

[Mat-14] Matuttis, H.-G.; Chen, J. F.: Understanding the discrete element method: Si-mulation of non-spherical particles for granular and multi-body systems. JohnWiley & Sons Inc, Hoboken, NJ: 2014.

[McG-05] McGlinchey, D.: „Bulk property characterisation“. In: Characterisation of bulksolids. Hrsg. von McGlinchey, D. Blackwell, Oxford: 2005, S. 48–84.

[McK-79] McKay, M. D.; Beckman, R. J.; Conover, W. J.: „A Comparison of Three Methodsfor Selecting Values of Input Variables in the Analysis of Output from a ComputerCode“. In: Technometrics 21.2 (1979), S. 239–245.

[Min-53] Mindlin, R. D.; Deresiewicz, H.: „Elastic Spheres in Contact Under VaryingOblique Forces“. In: Journal of Applied Mechanics 20 (1953), S. 327–344.

[Mun-12] Munjiza, A. A.; Rougier, E.; Knight, E. E.: Computational mechanics of disconti-nua. Wiley series in computational mechanics. Wiley, Chichester, West Sussex,U.K.: 2012.

[Nas-15] Nasato, D. S.; Goniva, C.; Pirker, S.; Kloss, C.: „Coarse Graining for Large-scaleDEM Simulations of Particle Flow – An Investigation on Contact and CohesionModels“. In: Procedia Engineering 102 (2015), S. 1484–1490.

[Ned-92] Nedderman, R. M.: Statics and kinematics of granular materials. CambridgeUniv. Press, Cambridge: 1992.

[Pap-15] Papageorgiou, M.; Leibold, M.; Buss, M.: Optimierung: Statische, dynamische,stochastische Verfahren für die Anwendung. 4. 2015.

[Qui-15] Quist, J.; Evertsson, M.: „Framework for DEM Model Calibration and Validati-on“. In: Proceedings of the 14th European Symposium on Comminution andClassification. Hrsg. von Evertsson, M.; Hulthen, E.; Quist, J. 2015, S. 103–108.

75

Page 96: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

LITERATURVERZEICHNIS

[Rac-16] Rackl, M.; Görnig, C. D.; Hanley, K. J.; Günthner, W. A.: „Efficient calibration ofdiscrete element material model parameters using Latin hypercube samplingand Kriging“. In: Proceedings of ECCOMAS 2016. Hrsg. von Papadrakakis, M.;Papadopoulos, V.; Stefanou, G.; Plevris, V. Bd. 2. 2016, S. 4061–4072.

[Rac-17a] Rackl, M.; Grötsch, F. E.; Rusch, M.; Fottner, J.: „Qualitative and QuantitativeAssessment of 3D-Scanned Bulk Solid Heap Data“. In: Powder Technology 321(2017), S. 105–118.

[Rac-17b] Rackl, M.; Hanley, K. J.: „A methodical calibration procedure for discrete elementmodels“. In: Powder Technology 307 (2017), S. 73–83.

[Rac-17c] Rackl, M.; Hanley, K. J.; Günthner, W. A.: „Verfication of an automated work flowfor discrete element material parameter calibration“. In: Proceedings of the 7thInternational Conference on Discrete Element Methods. Hrsg. von Li, X.; Feng,Y.; Mustoe, G. Springer Proceedings in Physics. Springer Verlag, Singapur:2017, S. 201–208.

[Rac-17d] Rackl, M.; Jelich, C.; Görnig, C. D.: DEcalioc: A discrete element method (DEM)calibration framework for LIGGGHTS. 2017. URL: https://github.com/DECALIOC/DEcalioc (besucht am 20. 04. 2017).

[Rac-17e] Rackl, M.; Top, F.; Molhoek, C. P.; Schott, D. L.: „Feeding system for wood chips:A DEM study to improve equipment performance“. In: Biomass and Bioenergy98 (2017), S. 43–52.

[Sak-14] Sakai, M.; Abe, M.; Shigeto, Y.; Mizutani, S.; Takahashi, H.; Viré, A.; Percival,J. R.; Xiang, J.; Pain, C. C.: „Verification and validation of a coarse grain modelof the DEM in a bubbling fluidized bed“. In: Chemical Engineering Journal 244(2014), S. 33–43.

[San-03] Santner, T. J.; Williams, B. J.; Notz, W. I.: The Design and Analysis of ComputerExperiments. Springer Series in Statistics. Springer, New York, NY: 2003.

[Sch-14] Schulze, D.: Pulver und Schüttgüter: Fließeigenschaften und Handhabung. 3.,erg. Aufl. 2014. VDI-Buch. Springer Berlin Heidelberg, Berlin Heidelberg: 2014.

[Sin-17] Sinaie, S.: „Application of the discrete element method for the simulation of sizeeffects in concrete samples“. In: International Journal of Solids and Structures108 (2017), S. 244–253.

[Sta-09] Stanley-Wood, N.: „Bulk powder properties: instrumentation and techniques“.In: Bulk solids handling. Hrsg. von McGlinchey, D. Blackwell Publ, Ames, Iowa:2009, S. 1–67.

[Ste-99] Stein, M. L.: Interpolation of Spatial Data: Some Theory for Kriging. SpringerSeries in Statistics. Springer, New York, NY: 1999.

[Suh-16] Suhr, B.; Six, K.: „On the effect of stress dependent interparticle friction in directshear tests“. In: Powder Technology 294 (2016), S. 211–220.

[Sve-16] Svenson, J.; Santner, T.: „Multiobjective optimization of expensive-to-evaluatedeterministic computer simulator models“. In: Computational Statistics & DataAnalysis 94 (2016), S. 250–264.

76

Page 97: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

LITERATURVERZEICHNIS

[Tho-15] Thornton, C.: Granular Dynamics, Contact Mechanics and Particle SystemSimulations: A DEM study. 1st ed. 2015. Bd. 24. Particle Technology Series.Springer, Cham u. a.: 2015.

[Uba-16] Ubach, P. A.; Arrufat, F.; Ring, L.; Gandikota, R.; Zárate, F.; Oñate, E.: „Applica-tion of an enhanced discrete element method to oil and gas drilling processes“.In: Computational Particle Mechanics 3.1 (2016), S. 29–41.

[Wan-17] Wang, M.; Cao, P.: „Calibrating the Micromechanical Parameters of the PFC2D(3D) Models Using the Improved Simulated Annealing Algorithm“. In: Mathema-tical Problems in Engineering 2017.1 (2017), S. 1–11.

[Wan-10] Wang, Y.; Tonon, F.: „Calibration of a discrete element model for intact rockup to its peak strength“. In: International Journal for Numerical and AnalyticalMethods in Geomechanics 34.5 (2010), S. 447–469.

[Web-07] Webster, R.; Oliver, M. A.: Geostatistics for environmental scientists. 2. ed.Statistics in practice. Wiley, Chichester: 2007.

[Wen-12] Wensrich, C. M.; Katterfeld, A.: „Rolling friction as a technique for modellingparticle shape in DEM“. In: Powder Technology 217 (2012), S. 409–417.

[Yoo-07] Yoon, J.: „Application of experimental design and optimization to PFC modelcalibration in uniaxial compression simulation“. In: International Journal of RockMechanics and Mining Sciences 44.6 (2007), S. 871–889.

[Zoh-07] Zohdi, T. I.: An introduction to modeling and simulation of particulate flows. Bd. 4.Computational science and engineering. Society for Industrial and AppliedMathematics, Philadelphia: 2007.

[Zou-17] Zou, Q.; Lin, B.: „Modeling the relationship between macro- and meso-parametersof coal using a combined optimization method“. In: Environmental Earth Sciences76.14 (2017), S. 557.

77

Page 98: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 99: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

A Anhang: Abdrucke der eingebundenen Artikel

A.1 Abdruck von Artikel 1

Rackl, M.; Görnig, C. D.; Hanley, K. J.; Günthner, W. A.: „Efficient calibration of discrete

element material model parameters using Latin hypercube sampling and Kriging“. In: Pro-

ceedings of ECCOMAS 2016. Hrsg. von Papadrakakis, M.; Papadopoulos, V.; Stefanou, G.;

Plevris, V. Bd. 2. 2016, S. 4061–4072.

Reprint with permission of European Community on Computational Methods in Applied

Sciences (ECCOMAS).

A-79

Page 100: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 101: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

ECCOMAS Congress 2016VII European Congress on Computational Methods in Applied Sciences and Engineering

M. Papadrakakis, V. Papadopoulos, G. Stefanou, V. Plevris (eds.)Crete Island, Greece, 5–10 June 2016

EFFICIENT CALIBRATION OF DISCRETE ELEMENT MATERIALMODEL PARAMETERS USING LATIN HYPERCUBE SAMPLING AND

KRIGING

M. Rackl1, C.D. Gornig1, K.J. Hanley2 and W.A. Gunthner1

1Institute for Materials Handling, Material Flow, LogisticsTechnical University of Munich

Boltzmannstraße 15, 85748 Garching, Germanye-mail: [email protected], [email protected]

2 Institute for Infrastructure and Environment, School of EngineeringThe University of Edinburgh

Edinburgh EH9 3JL, United Kingdome-mail: [email protected]

Keywords: discrete element method, calibration, meta model, Kriging

Abstract. Material model parameter identification for discrete element models (DEM) is typi-cally done using a trial-and-error approach and its outcome depends largely on the experienceof the DEM user. This paper describes a work flow which facilitates the efficient and system-atic calibration of discrete element material models against experimental data. The describedworkflow comprises three steps. In the first step, an approach based on the design and analysisof computer experiments (DACE) is adopted in which data is generated for the parametrisationof Kriging models based on Latin hypercube sampling. In the second step, multi-objective op-timisation is applied to the Kriging models. This study introduces an additional cost criterion,which includes the Rayleigh time step, in order to reduce the solution set size to one element.In the third step, the optimisation procedure is repeated with the actual DEM models, using theoptimal parameter set from the Kriging models as the start value. This final step with the fullDEM models refines the parameter set against experimental data. Since DEM material modelcalibration is time-consuming, the workflow is implemented into an automated process chain.In this paper, the methodology is described in detail and results are shown which illustratethe usefulness and effectiveness of this approach. Initial verification simulations run using thecalibrated parameters give good agreement with experimental results.

4061

A.1 Abdruck von Artikel 1

A-81

Page 102: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

1 Introduction

Many advanced modelling methods and tools are available, and the continual increases inaffordable computational power allow more ambitious and realistic simulations to be run year-on-year. One remaining problem affecting certain simulation methods, which particularly in-hibits their adoption in industry, is the difficulty in choosing suitable input parameters. This isespecially true when the simulation input parameter does not have a physical analogue.

This paper focuses on one simulation tool, the discrete element method (DEM). A work flowis described and demonstrated for calibration of key simulation input parameters against exper-imental data. The objective is to allow DEM users to identify their required input parameters inan efficient, user-friendly and systematic manner.

1.1 Overview of discrete element method

Since its formulation in the 1970s [1], the discrete element method (DEM) has becomeincreasingly popular for simulating complex systems of particulates at the particle scale byspecifying a relatively small number of microstructural parameters. The growing interest inDEM among the scientific community is demonstrated by the publication of a number of specialissues of journals devoted to DEM within the past five years (e.g., Engineering Computations26(6); Granular Matter 11(5); Powder Technology 193(3); Powder Technology 248). Literaturesurveys have also shown a rapid increase in the popularity of DEM since its introduction [2, 3].

In ‘soft-sphere’ DEM simulations, particles are modelled as bodies of finite size, inertiaand stiffness. The geometries of the simulated particles are usually idealised to reduce thecomputational requirements. The particles are rigid but are allowed to overlap; this interparticleoverlap is analogous to the deformation that occurs at real particle contacts. The most commonimplementation of DEM is based on an explicit, conditionally-stable time-stepping algorithm.In each time step [3], interparticle forces are evaluated at contact points and resultant forces arecalculated for each particle. Newton’s Second Law is then applied to determine the translationaland angular particle accelerations. These acceleration terms are integrated numerically to findparticle velocities and displacements. Finally, the displacements are used to update the particlepositions during each time step.

1.2 DEM material parameter identification

Even though a typical DEM simulation requires relatively few input parameters, findingthese can be challenging. Consider the simplest case in which each idealised, simulated particlerepresents one physical particle. The rheological parameters for input to the contact models(i.e., force–displacement laws) can be difficult to determine accurately by experiment [4]. Theinterparticle friction coefficient strongly influences the system response in simulations usingspheres [5], but its value is often increased beyond physical measurements of friction in an ef-fort to model the particle irregularity in the real system. Numerical damping [6, 7] is difficult torelate to physical measurements. These problems are exacerbated when irregular particles aresimulated: even simple rolling resistance models require at least one non-physical parameter[8]. Other complications of the basic DEM, e.g., crushable fundamental particles, also requireparameters which lack a physical basis [9]. ‘Coarse graining’ may be used to reduce the com-putational requirements of a simulation. The real particles are replaced by fewer, larger coarseparticles, each of which represents many real particles [10, 11, 12]. Thus, none of the inputparameters for a coarse-grained simulation may necessarily be obtainable by laboratory testing.

In general, it is not possible to infer a complete set of appropriate parameters for a DEM

4062

A Anhang: Abdrucke der eingebundenen Artikel

A-82

Page 103: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

simulation directly from measured properties of the physical material. Therefore, some (or all)of the parameters may need to be determined by calibration, i.e., by varying the unknown DEMparameters until a good match is obtained between physical measurements of the response(s) ofinterest and the simulation results. Although DEM calibration is often used, e.g., [13, 14, 15],the main limitation of existing, commonly-used calibration methods is inefficiency. The param-eters are often varied individually by trial-and-error while the user-defined response of interestis monitored. This approach has many disadvantages [4]: the effectiveness of the approachis dependant on the experience of the user, the final parameters obtained may not be optimal,the number of DEM simulations required for calibration is not known in advance, and limitedmechanistic insight is gained. As DEM simulations can be very computationally expensive,it is desirable to maximise the efficiency of the calibration process. Several researchers haveproposed more efficient DEM calibration approaches using design of experiments (DoE) meth-ods [4, 16, 17, 18] but these have found limited application to date. In subsection 2.4 of thispaper, an alternative work flow for DEM calibration is described which is both efficient anduser-friendly.

2 MATERIALS AND METHODS

The work flow proposed in this paper is based on Kriging meta modelling, multi-variate op-timisation and general concepts of Design and Analysis of Computer Experiments. A detaileddescription of the process implemented using GNU Octave (Octave, [19]) is given in subsec-tion 2.4.

2.1 Design and Analysis of Computer Experiments

Design and Analysis of Computer Experiments (DACE) is closely related to the Designof Experiments (DoE) for physical experiments. It includes methods and work flows for thecharacterisation of computationally inexpensive and expensive black box models. In the case ofDEM material parameter calibration, the black box models are the material test setups, whichwere modelled using DEM. The reader is referred to widely-available literature on DoE andDACE for nomenclature, general ideas as well as background of the methods (e. g. [20, 21]).

As with DoE, any DACE workflow can be divided into four steps:

1. Define the factors, factor levels (or factor intervals) and the response to be recorded.

2. Create an experimental plan based on the data of step 1 and the requirements for step 4.

3. Conduct the experiments by running simulations according to the experimental plan andgather the response data.

4. Transform (where required) the data, use them to parametrise meta models and harnessthe latter for e. g. optimisation of the response.

2.2 Kriging and Latin Hypercube sampling

Kriging, which is also known as Gaussian process regression, is a statistical regressionmethod for meta modelling which is based on covariances. It requires response data fromseveral samples taken from within a previously-defined N-dimensional factor space and esti-mates the (meta) model parameters via a maximum likelihood approach [22]. Basic ideas forKriging were developed and applied in [23] and later generalised [24]. In this study, the Kriging

4063

A.1 Abdruck von Artikel 1

A-83

Page 104: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

implementation of the Small Toolbox for Kriging (STK, [25]) was used under Octave. The base-line options for the Kriging models were set to using an anisotropic Matern covariance matrixtogether with a linear trend.

The experimental plan, which prescribes the factor value combinations at which the responsedata are to be computed, is generated via Latin hypercube sampling (LHS, [26]). LHS generatesfactor value combinations by randomly, but evenly, distributing points within the specified factorinterval limits. To further reduce the variance of the Kriging models, this study uses LHS inconjunction with a MAXIMIN criterion [21, p. 138 ff.].

2.3 Issues addressed by the proposed work flow

Since the calibration of DEM material parameters is greatly dependent on the DEM user, theaim of the proposed work flow was to reduce the user interaction to a minimum. Three majorissues with DEM material calibration were selected to be addressed by the work flow.

First of all, the calibration process should become automatic, which means that computationsrequired to calibrate the material parameters are to be set up and run automatically. This alsoincludes the evaluation of DEM results. While the manual evaluation of e. g. the bulk densityis fairly easy, the measurement of, for example, the angle of repose is somewhat subjectiveand its result may vary with the measurement method used. It is therefore important to ensurecomparability of different values of the same response, which is solved using an automatisedresults evaluation.

Secondly, keeping track of how changes of the material parameters affect the DEM resultsis a challenging task, even for an experienced user. Due to the sheer number of up to 14 param-eters1 and possible interactions, it becomes very difficult to relate parameters to effects whenaltering several parameters at once. This problem could be resolved by only changing one fac-tor at a time; however this approach does not account for parameter interactions and is highlyinefficient [20]. The solution suggested in this study is to combine LHS and Kriging methodsto create meta models that account for interactions and corresponding effects.

Thirdly, the computational efficiency of the calibrated material model may not always be thefocus of the calibration process. This is especially true since the Rayleigh time step in DEMdepends on material parameter values (i. e. altering the Young’s modulus affects the maximumtime step size). Hence, a further target of the described work flow is to take the Rayleigh timestep into account and not only seek precise prediction of measurement results but also largerminimum time step sizes. Within subsection 2.4, a cost function that accounts for the Rayleightime step is proposed and implemented.

2.4 Work flow of the proposed calibration process

The described workflow was developed and implemented using the open-source DEM soft-ware LIGGGHTS [29]. Since DEM material model calibration is time-consuming, the work-flow is implemented into an automated process chain using GNU Octave. The user has tointegrate custom DEM models of material tests into the folder structure of the Octave scripts. Acustom DEM model usually consists of a LIGGGHTS model of a bulk material test along withauxiliary functions which allow for automatic evaluation of the result files. For example, thiscould be the model of a simple bulk density experiment, including Octave functions to computethe bulk density from the total particle mass and the known volume of the container2.

1DE model with one particulate medium and wall interaction.2Setting up custom models is a non-recurring task.

4064

A Anhang: Abdrucke der eingebundenen Artikel

A-84

Page 105: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

The only actual user input are the measurement results from physical experiments (e. g. bulkdensity) and intervals for the material and contact parameters of materials in Octave. Theseintervals will have to include the final solution set. Of course, the final solution set is unknownat this point, so the intervals can be of any finite width. Subsequently, the algorithm can bestarted and it will finish autonomously.

The main workflow comprises three steps. In the first step, an approach based on the designand analysis of computer experiments is adopted in which data is generated for the parametrisa-tion of Kriging models based on Latin hypercube sampling. The material and contact parametervalues, as defined by the user, are used as free variables for the calibration. The programme willcarry out a user-specified number of DEM simulations, which provide the input for the Krigingmeta model parametrisation (cf. Figure 1). Depending on the performance of the computer,several simulations may be run in parallel to save time. All obtained results are handed overand saved in Octave.

intervals ofmaterial

parameters

Latin hypercubesampling

discrete elementmodels of simple

material test setups

DEM modelresponse

input forKriging

Figure 1: Generation of response data as input for the Kriging models.

In the second step, multi-objective optimisation is applied to the Kriging models (cf. Fig-ure 2). For the optimisation the frontend ‘nonlin-residmin’ Octave function for non-linear resid-ual minimization is used which is based on the Levenberg-Marquardt algorithm [27, 28]. Allresults of the previous DEM simulations and the Latin hypercube sampling plan are used asresponses to parametrise Kriging models. The Kriging models are then used to optimise the setof variable material and contact parameters such that the user-specified measurement values areattained.

DEM modelresponse

input forKriging

Kriging

meta model foreach material test

setup

optimisationusing

measurementresults as target

values

startingvalues for

calibration ofthe DEMmaterialmodel

Figure 2: Response data from the LHS are used as input to the Kriging models.

For this purpose, the multi-objective cost function

ci =si −mi

mi

(1)

has been implemented where si is the result of the simulation and mi is the correspondingphysical measurement. The smaller the difference between the two, the smaller ci is. Thefunction calculates i proportions of i measurement results and all have the same weighting. Toavoid generating computationally-expensive sets of DEM parameters, the Rayleigh time step

4065

A.1 Abdruck von Artikel 1

A-85

Page 106: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

will also be optimised. The cost function of the Rayleigh time step is

ti =rmax − dtrrmax − rmin

, (2)

where dtr is the Rayleigh time step, rmax is the best-case of the Rayleigh time step and rminis the worst-case. Best and worst-case refer the minimum and maximum achievable Rayleightime with respect to the intervals specified. The Rayleigh time step is calculated according to

dtr = π · r ·√

ρG

0.1631 · ν + 0.8766, (3)

where ρ is particle density, G is the shear modulus, ν is Poisson’s ratio and r is the radius ofthe smallest particle. The Rayleigh time step depends on the parameter values that have to beoptimised. The cost function of the Rayleigh time step is linear and it can take values between0 and 1.

In the third step, the optimisation procedure is repeated with the actual DEM models, usingthe optimal parameter set from the Kriging models as start values (cf. Figure 3). This finalstep only requires a few more runs with the full DEM models and simultaneously refines theparameter set against the experimental measurement data.

startingvalues for

calibration ofthe DEMmaterialmodel

discrete element modelsof simple test setups

DEM results

optimisationusing measurement

results as target values

calibratedDEM

materialparameters

compare withmeasurements

withintolerance?

yes

no

Figure 3: Optimisation procedure for DEM models

2.5 A small study using glass beads

A small initial study was set up in order to test the proposed work flow within a realisticframework and glass beads were chosen as the bulk solid of interest. The overall aim was to

4066

A Anhang: Abdrucke der eingebundenen Artikel

A-86

Page 107: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

calibrate the density and rolling friction (particle-particle) in such way that the angle of reposeand bulk density results match measured values. A bulk density of 1500 kg m−3 and an angle ofrepose of 22◦ were found in literature for glass beads ([30, p. 16], [31]). The particle diameterwas set to 10 mm.

A combined discrete element model was used for simulation of the bulk density and angle ofrepose. Since measuring the angle of repose can be difficult, an automatic evaluation algorithm,based on image recognition, was developed for this study. The DEM software LIGGGHTSwas applied with a Hertz-Mindlin contact model and the elastic-plastic spring-dashpot (EPSD)rolling friction model. Table 1 shows the DEM input parameters used.

material parameter particle wall p-p p-w constant?Young’s modulus (N m−2) 3.6 × 105 2.11 × 1011 yesPoisson’s ratio (-) 0.22 0.30 yesdensity (kg m−3) 2100 7700 used for calibrationcontact parameterfriction coefficient (-) 0.18 0.27 yesrolling friction (-) 0.67 0.005 used for calibrationcoefficient of restitution (-) 0.79 0.82 yesviscous RF damping (-) 0.25 0.25 yes

Table 1: Constant DEM input parameters and those used for calibration of the bulk density and angle of repose(p-p: particle-particle; p-w: particle-wall; RF: rolling friction).

In addition to running the described test case, the influence of the factor interval width (FIW)and the random factory seed (RFS) of the DEM models was investigated for the purpose of test-ing the robustness of the work flow. The FIW prescribes how wide the factor interval of thecalibration parameters is, whereas the RFS controls the random generation of particles whenstarting a DEM simulation in LIGGGHTS. The influence of RFS on the results should onlybe of a stochastic nature, in theory. Table 2 shows details about the RFS and FIW levels andthe experimental plan for this study. For the two non-constant parameters–density and rollingfriction– maximum and minimum values (intervals) were specified before each calibration run(±FIW). During each calibration run 26 probes were computed to parametrise the Kriging mod-els.

FIW (%) RFS (-)levels 10, 33, 66 3000, 4000

run no.1 10 30002 10 40003 33 30004 33 40005 66 30006 66 4000

Table 2: Factor levels and experimental plan for the study to investigate factor interval width (FIW) and randomfactory seed (RFS).

3 RESULTS AND DISCUSSION

Two factors, the FIW and the RFS, were altered to initially assess the reliability of the workflow for DEM material parameter calibration. Each of the runs from the experimental plan

4067

A.1 Abdruck von Artikel 1

A-87

Page 108: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

converged to a meaningful solution set. It took the multi-variate optimisation algorithm a meanof 10 optimisation runs (min. 9, max. 15) with the actual DEM models.

The desired values for bulk density and angle of repose were closely met, as deviations werewithin a few percent. Mean differences were 1.3 % (min. 0.45 %, max. 2.7 %) for the angleof repose and 0.92 % (min. 0.13 %, max. 3.1 %) for bulk density. One should also note thatthe variance measured in physical experiments, especially for the angle of repose, is typicallysignificantly higher than the deviations recorded in this study.

Due to the small number of simulation experiments, it is not fully clear how much the RFSvalue influences the results. Ideally, it should only induce stochastic noise. According to theresults depicted in Figure 4 and Figure 5, it does not generate a systematic trend or offset.

2.5

3

2

FIW (%)

abs.

diff

.: bu

lk d

ensi

ty (

%)

1.5

1

0.5

0706050403020

RFS= 3000RFS= 4000

10

3.5

Figure 4: Influence of the FIW and RFS on the absolute relative difference between desired and optimised bulkdensity.

There is a clear correlation between the number of optimisation runs and the FIW. It can beseen from Figure 6 that a wider FIW results in more optimisation runs being required, inde-pendently of the RFS. This behaviour was expected, since the sampling density reduces withan increased FIW and the Kriging models have to interpolate in areas with a greater distancebetween interpolation points. The Kriging model predictions therefore show a greater varianceon those areas and the precision of the estimates for starting values for the DEM optimisationreduces.

4 CONCLUSION

A framework for efficient calibration of discrete element material model parameters wasimplemented in this study. A total of approximately 38 DEM runs were required to calibrateparticle density and rolling friction against measurements of the angle of repose and bulk den-sity. The results from a small study with glass beads show that the general approach works anddesired results were well within practical tolerances of the desired values. Nonetheless, morestudies will be necessary to further validate the usefulness of the described work flow as well asits robustness, e. g. when unfavourable parameter intervals are set by the user.

4068

A Anhang: Abdrucke der eingebundenen Artikel

A-88

Page 109: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

2.5

3

FIW (%)

abs.

diff

.: an

gle

of r

epos

e (%

)

2

1.5

1

0.5

07060504030

RFS= 3000RFS= 4000

2010

Figure 5: Influence of the FIW and RFS on the absolute relative difference between desired and optimised angleof repose.

14

15

FIW (%)

no. o

f opt

imis

atio

n ru

ns (

-)

13

12

11

10

9

7060504030

RFS= 3000RFS= 4000

2010

Figure 6: Influence of the FIW and RFS on the number of optimisation runs required.

4069

A.1 Abdruck von Artikel 1

A-89

Page 110: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

5 ACKNOWLEDGEMENT

This study received funding by the AiF (no. 18371 N/1), within the programme for sponsor-ship by Industrial Joint Research (IGF) of the German Federal Ministry of Economic Affairsand Energy based on an enactment of the German Parliament.

REFERENCES

[1] Cundall, P.A. & Strack, O.D.L. (1979). A discrete numerical model for granular assem-blies. Geotechnique, 29(1): 47–65.

[2] Zhu, H.P., Zhou, Z.Y., Yang, R.Y. & Yu, A.B. (2007). Discrete particle simulation ofparticulate systems: Theoretical developments. Chemical Engineering Science, 62(13):3378–3396.

[3] O’Sullivan, C. (2011). Particulate discrete element modelling: A geomechanics perspec-tive (1st ed.), Taylor & Francis, Oxford, UK.

[4] Hanley, K.J., O’Sullivan, C., Oliveira, J.C., Cronin, K. & Byrne, E.P. (2011). Applicationof Taguchi methods to DEM calibration of bonded agglomerates. Powder Technology,210(3): 230–240.

[5] Huang, X., Hanley, K.J., O’Sullivan, C. & Kwok, C.-Y. (2014). Exploring the influenceof interparticle friction on critical state behaviour using DEM. International Journal forNumerical and Analytical Methods in Geomechanics, 38(12): 1276–1297.

[6] Potyondy, D.O. & Cundall, P.A. (2004). A bonded-particle model for rock. InternationalJournal of Rock Mechanics and Mining Sciences, 41(8): 1329–1364.

[7] Itasca Consulting Group (2008). PFC3D: Particle flow code in three dimensions User’sGuide (4th ed.), Minneapolis, Minnesota.

[8] Ai, J., Chen, J.F., Rotter, J.M. & Ooi, J.Y. (2011). Assessment of rolling resistance modelsin discrete element simulations. Powder Technology, 206, 269–282.

[9] Hanley, K.J., O’Sullivan, C. & Huang, X. (2015). Particle-scale mechanics of sand crush-ing in compression and shearing using DEM. Soils and Foundations, 55(5): 1100–1112.

[10] Sakai, M. & Koshizuka, S. (2009). Large-scale discrete element modeling in pneumaticconveying. Chemical Engineering Science, 64(3): 533-539.

[11] Sakai, M., Abe, M., Shigeto, Y., Mizutani, S., Takahashi, H., Vire, A., Percival, J.R.,Xiang, J. & Pain, C.C. (2014). Verification and validation of a coarse grain model of theDEM in a bubbling fluidized bed. Chemical Engineering Journal, 244: 33–43.

[12] Nasato, D.S., Goniva, C., Pirker, S. & Kloss, C. (2015). Coarse Graining for Large-scaleDEM Simulations of Particle Flow – An Investigation on Contact and Cohesion Models.Procedia Engineering, 102: 1484–1490.

[13] Dolezalova, M., Czene, P. & Havel, F. (2002). Micromechanical modeling of stress patheffects using PFC2D code. In: H. Konietzky (Ed.), Numerical Modeling in Micromechan-ics via Particle Methods, Balkema, Lisse, pp. 173–182.

4070

A Anhang: Abdrucke der eingebundenen Artikel

A-90

Page 111: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

[14] Asaf, Z., Rubinstein, D. & Shmulevich, I. (2006). Evaluation of link-track performancesusing DEM. Journal of Terramechanics, 43(2): 141–161.

[15] Coetzee, C.J. & Els, D.N.J. (2009). Calibration of discrete element parameters and themodelling of silo discharge and bucket filling. Computers and Electronics in Agriculture,65(2): 198–212.

[16] Yoon, J. (2007). Application of experimental design and optimization to PFC model cali-bration in uniaxial compression simulation. International Journal of Rock Mechanics andMining Sciences, 44(6): 871–889.

[17] Favier, J., Curry, D. & LaRoche, R. (2010). Calibration of DEM material models to ap-proximate bulk particle characteristics. Proc. 6th World Congress on Particle Technology,Nuremberg, Germany.

[18] Johnstone, M. (2010). Calibration of DEM models for granular materials using bulk phys-ical tests. PhD thesis, University of Edinburgh.

[19] Eaton, J.W., Bateman, D., Hauberg, S., Wehbring, R. (2015). GNU Octave version 4.0.0manual: a high-level interactive language for numerical computations.

[20] Dean, A., Morris, M., Stufken, J., and Bingham, D. (2015). Handbook of Design andAnalysis of Experiments. CRC Press, Hoboken.

[21] Santner, T.J., Williams, B.J., Notz, W.I (2003). The Design and Analysis of ComputerExperiments. Springer Series in Statistics. Springer, New York, NY.

[22] Jones, D.R., Schonlau, M., Welch, W.J. (1998). Efficient global optimization of expensiveblack-box functions. Journal of Global Optimization, 13(4):455–492.

[23] Krige, D.G. (1951). A statistical approach to some mine valuations and allied problemsat the Witwatersrand. Master’s thesis, University of Witwatersrand.

[24] Matheron, G. (1963). Principles of geostatistics. Economic Geology, 58(8):1246–1266.

[25] Bect, J., Vazquez, E. et al (2014). STK: a Small (Matlab/Octave) Toolbox for Kriging.Release 2.3.

[26] McKay, M.D., Beckman, R.J., Conover, W.J. (1979). A comparison of three methodsfor selecting values of input variables in the analysis of output from a computer code.Technometrics, 21(2):239.

[27] D.W. Marquardt. (1963). An algorithm for least-squares estimation of nonlinear parame-ters. Journal of the Society for Industrial and Applied Mathematics, 11(2):431-441.

[28] K. Levenberg. (1944). A Method for the Solution of Certain Non-Linear Problems inLeast Squares. The Quarterly of Applied Mathematics, 2: 164-168.

[29] Kloss, C., Goniva, C., Hager, A., Amberger, S., Pirker, S. (2012). Models, algorithmsand validation for opensource DEM and CFD-DEM. Progress in Computational FluidDynamics, 12(2/3):140–152.

4071

A.1 Abdruck von Artikel 1

A-91

Page 112: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, C.D. Gornig, K.J. Hanley and W.A. Gunthner

[30] Brown, R.L., Richards, J. C., Danckwerts, P. V. (1970). Principles of Powder Mechanics:Essays on the Packing and Flow of Powders and Bulk Solids, volume volume 10 of Inter-national series of monographs in chemical engineering. Elsevier Science, Burlington.

[31] Wong, A.C.-Y. (2000). Characterisation of the flowability of glass beads by bulk densitiesratio. Chemical Engineering Science, 55(18):3855–3859.

4072

A Anhang: Abdrucke der eingebundenen Artikel

A-92

Page 113: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

A.2 Abdruck von Artikel 2

A.2 Abdruck von Artikel 2

Rackl, M.; Hanley, K. J.; Günthner, W. A.: „Verfication of an automated work flow for discrete

element material parameter calibration“. In: Proceedings of the 7th International Conference

on Discrete Element Methods. Hrsg. von Li, X.; Feng, Y.; Mustoe, G. Springer Proceedings in

Physics. Springer Verlag, Singapore, Singapur: 2017, S. 201–208.

c© Springer Science+Business Media Singapore 2017

Reprint with permission of Springer Nature.

A-93

Page 114: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 115: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Verification of an Automated Work Flowfor Discrete Element Material ParameterCalibration

Michael Rackl, Kevin J. Hanley and Willibald A. Günthner

Abstract Identification of parameter values for discrete element method(DEM) material models is a major issue for realistic simulation of bulk materials.Choosing suitable parameter values is often done using trial and error in a disor-ganized manner, where efficiency largely depends on the experience of the DEMuser. A methodical work flow, which is based on Latin hypercube sampling, Krigingand numerical optimization, was composed with open-source software. The cali-brated DEM materials were subsequently validated against the physical data frommeasurements and the number of required DEM simulations was recorded to assessthe effectiveness of the overall method. The simulation results were within a fewpercent of the desired experimental values after an average of 14 DEM runs.Disadvantageous boundary conditions, like a wide factor value range or the optimumbeing located at an edge, did not considerably influence the quality of the results.

1 Introduction

The discrete element method (DEM) has gradually gained acceptance as a usefultool for predicting the behaviour of bulk particulates. One factor which hasinhibited the adoption of DEM is the difficulty in choosing suitable input param-eters for the simulations, particularly those parameters which are not easily relatedto physical measurements of the material, e.g., interparticle friction coefficient.Most DEM simulations contain some parameters which can be obtained only bycalibration, i.e., by varying the unknown simulation parameters until the simulationresults are in good agreement with equivalent physical measurements. Some efforts

M. Rackl (&) � W.A. GünthnerInstitute for Materials Handling, Material Flow, Logistics,Technical University of Munich, Boltzmannstrasse 15, 85748 Garching, Germanye-mail: [email protected]

K.J. HanleySchool of Engineering, Institute for Infrastructure and Environment,The University of Edinburgh, Edinburgh EH9 3JL, UK

© Springer Science+Business Media Singapore 2017X. Li et al. (eds.), Proceedings of the 7th International Conferenceon Discrete Element Methods, Springer Proceedings in Physics 188,DOI 10.1007/978-981-10-1926-5_23

201

[email protected]

A.2 Abdruck von Artikel 2

A-95

Page 116: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

have been made to establish robust methods for DEM calibration, e.g., Yoon [10],Favier et al. [3], Johnstone [6] and Benvenuti et al. [1]. However, these are notwidely used and ad hoc trial-and-error methods remain predominant which havemany disadvantages [5].

An automated workflow for DEM material model calibration was described byRackl et al. [9]. The DEM code used for this demonstration was LIGGGHTS [7],the methodology was based on Latin hypercube sampling (LHS), Kriging andnumerical optimization, and the simulations were planned and controlled usingGNU Octave [2]. The aim of this paper is to verify the capability and efficiency ofthis approach for calibrating contact law parameters based on physical measure-ments of the angle of repose and bulk density.

2 Materials and Methods

The calibration process, described in Sect. 2.1, was verified by comparing itsresulting solution sets against reference results from the same DEM model. Thenumerical experiments and reference results are described in Sects. 2.2 and 2.3,respectively.

2.1 Calibration Method

The calibration method applied in this study was described by Rackl et al. [9]. It usesa two-step optimization process. The first optimization step is based on a Krigingmeta model, which is parameterized with response data from sample points of aDEMmodel for the angle of repose and bulk density. Sample points are generated bymeans of Latin hypercube sampling (LHS). Optimized material parameter values ofthe particle density and rolling friction are then used as starting values for the secondoptimization process. The latter optimizes the parameters using the actual DEMmodel. The cost function of the multi-variate optimization algorithm includes therelative difference between physical measurements of the angle of repose and bulkdensity and a criterion involving the Rayleigh time step size.

2.2 Numerical Experiments

Solution sets for various combinations of boundary conditions were generated. Thefactors and factor levels were selected based on the expected usage of the cali-bration process, where a DEM user estimates DEM contact model parameters andknows the approximate interval in which the most suitable parameter values arelikely to occur.

202 M. Rackl et al.

[email protected]

A Anhang: Abdrucke der eingebundenen Artikel

A-96

Page 117: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Factors and Factor Levels

The robustness of the calibration method described in Rackl et al. [9] was to betested against four factors. With regard to the intended use of the calibrationmethod, two of them can be viewed as stochastic, whereas the other two are basedon human decisions.

The last two factors, i.e., those which can be actively chosen, are the factorinterval width (FIW, in percent) and the number of sample points that are used togenerate input for the Kriging models. In the progress of this study, the latter isexpressed based on the number of factors used for the calibration process (samplesper factor, samPfact). The FIW determines the range for each of the parameters tobe used for calibration, i.e., FIW = 33 % yields a parameter range from 67 to 133for a centered layout taking 100 as the base value. The two factors of stochasticnature are the random seed of the DEM particle factory in LIGGGHTS (rndSd) andthe location of the optimal parameter set for the given DEM model (locOpt). Thelocation is expressed in relation to the factor interval boundaries used for thecalibration parameters.

Three situations can be thought of for this location. Firstly, the optimal solutionset lies right in the center of the calibration factor space. This situation would beideal in terms of the optimization and only occurs when the user’s initial guess forthe parameters is optimal by chance. Secondly, the optimum lies inside theboundaries of the factor interval space, but is not in the center. This is consideredmost common, since the initial guess may not be exactly correct but at least within asensible range of the optimum. Thirdly, and least favorably, the optimum for at leastone of the calibration factors lies outside of the user-specified factor interval space.In this case the calibration method may output that the corresponding factor islocated at the maximum or minimum value of the interval. If such a result isobtained, the choice of factor interval has to be adapted and the calibration processrepeated. For this study, two locations were studied. These are (1) at the center and(2) at the corner where all calibration factor values are minimal. The factors andfactor levels used in this study are listed in Fig. 1.

Experimental Plan

The experimental plan used for the numerical experiments in this study was createdand evaluated with R [8] and the package RcmdrPlugin.DoE [4]. It is a full-factorialdesign containing two two-level factors and two three-level factors, consisting of 36

Fig. 1 Schematic overview of factors, factor levels and all 36 factor combinations

Verification of an Automated Work Flow … 203

[email protected]

A.2 Abdruck von Artikel 2

A-97

Page 118: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

distinct combinations of factor levels. Each run was repeated three times to be ableto estimate the variance of the results as well as the repeatability of the calibrationmethod. Figure 1 schematically shows the experimental plan without repeat runs.

2.3 Reference Results for the Calibration Process

For verification of the calibration process, the DEM model described in Rackl et al.[9] was used as a reference. As in the cited paper, particle density and rolling frictioncoefficient were used to calibrate the angle of repose (AoR) and bulk density(BD) based on data from literature. The DEM model was investigated at 400 samplelocations, based on an evenly-spaced regular 20 × 20 grid for the density and rollingfriction. Results for the AoR and the BD were recorded and used to parameterize twoKriging models. Based on these Kriging models, surface plots were created for boththe AoR and BD. They were subsequently used to find parameter combinations ofrolling friction and density which yield results within a span of ±5 % of the desiredAoR and BD of 22° and 1500 kg/m3. The intersection of both of these parameter setswas then considered to be the expected output of the calibration process.

3 Results and Discussion

The majority of solution sets were in excellent agreement with the expected out-come and desired values for the angle of repose and bulk density were closelymatched.

3.1 Reference Results

The reference models for the angle of repose and the bulk density are based on 400samples from the DEM model. The resulting contour plots are depicted in Fig. 2.

An angle of repose of 22° is somewhat hard to obtain with the selected model.As Fig. 2a shows, the lower the particle density and the higher the rolling friction,the higher the angle of repose becomes. The bulk density scales almost linearly withthe particle density. Nonetheless, it reaches a plateau at particle densities greaterthan 2500 kg/m3. Rolling friction does not considerably influence the bulk densityin this model.

In Figs. 3a, b, the desired 5 % span is depicted for the angle of repose and bulkdensity. Figure 3c shows the intersection of both solution spaces. It can be seenhow combining additional desired results reduces the diversity of possible solu-tions. However, there still exists a broad range of solutions, especially for therolling friction, which could be approximately 0.5 or 0.7–1.

204 M. Rackl et al.

[email protected]

A Anhang: Abdrucke der eingebundenen Artikel

A-98

Page 119: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

3.2 Calibration Process Results

The calibration process functioned robustly and yielded results within the expectedsolution space. A small percentage of solution sets was located at greater distancesfrom the expected outcome; these sets were investigated in more detail.

General Findings

From all 108 calibration runs, 93 (*86 %) resulted in a parameter set which laywithin or close to the expected areas (termed ‘main’, Fig. 3d). This shows that thecalibration process gave sensible results for most of the cases tested in this study.Desired angle of repose and bulk density values were matched with mean differ-ences of 1.7 % (min. 0 %, max. 18 %) and 5 % (min. 0 %, max. 24.5 %),respectively. It took the calibration process an average of 14 runs (LHS excluded,min. 8, max. 37) to obtain a solution set and each set was reported back as “con-verged” from the optimization algorithm. From the rest of the obtained solutionsets, 11 (10 %) were in a cluster located around an optimized density (ρO) of2824 kg/m3 (‘island’). Two further groups with two members each (1.9 %) were atρO around 3368 (‘isle_m’) and 4871 kg/m3 (‘isle_r’), respectively. Correspondingmean values for the different categories of results are listed in Table 1.

Remote Solution Sets from the Calibration Process

Closer examination of the island solution group showed that each of the 11 sets wasa result from the factor combinations locOpt = bound and FIW = 33 %. The twosets of isle_r were both results from rndSd = 4000, locOpt = bound, samPfact = 13and FIW = 66 %. The results in isle_m had samPfact = 9, rndSd = 4000 andlocOpt = bound in common.

Fig. 2 Contour plots for the angle of repose (a) and bulk density (b), based on the referencemodels. Units are (°) and (kg/m3), respectively

Verification of an Automated Work Flow … 205

[email protected]

A.2 Abdruck von Artikel 2

A-99

Page 120: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

All of the results located outside of the expected solution region resulted fromruns where the expected solution is located at the minimum values of the calibrationfactor interval (locOpt = bound). The lower density interval boundary for allconfigurations with locOpt = bound was 2100 kg/m3: very close to the computedmain area results in the ‘main’ group. This means that the residual of the Rayleightime step will always be around 1 for the expected solution area. Thus, any test runwith the locOpt = bound tends to seek an optimal solution where the particledensity (and hence the time step) is larger. It can be seen from Table 2 that withlocOpt = bound each of the remote result groups gave a lower sum of residuals thanthe main group. It can be concluded that the initial selection of the factor interval

Fig. 3 Desired AoR and BD solutions (±5 % span) are indicated by black dots (a, b, c). (d) Thelocation of obtained solution sets in red (Color figure online)

Table 1 Mean values for the three result groups from the calibration process. ρO: optimizedparticle density; µr,O: optimized rolling friction coefficient

Group No. of solution sets in group AoR (°) BD (kg/m3) ρO (kg/m3) µr,O (–)

main 93 21.7 1521 2096 0.76

island 11 21.9 1868 2824 0.89

isle_r 2 21.9 1867 4871 0.73

isle_m 2 21.9 1868 3368 0.68

206 M. Rackl et al.

[email protected]

A Anhang: Abdrucke der eingebundenen Artikel

A-100

Page 121: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

width, in combination with an unexpected “optimal” solution location can lead toundesirable results, where measurement data are neglected in favour of a largerRayleigh time step. It is unclear how this effect affects the calibration processresults, when more parameters which alter the Rayleigh time step are included forcalibration, e.g., Young’s modulus which could considerably affect the time step.

4 Conclusion and Outlook

The results of this study showed that the automatic DEM material model calibrationprocess described in Rackl et al. [9] is capable of robustly identifying suitablecontact law parameters to fit physical measurements for the angle of repose andbulk density, under various boundary conditions. Involving the time step in theoptimization process helps the algorithm to select efficient contact law parameters.Nonetheless, the Rayleigh time step portion of the cost function can cause sub-stantial differences of almost 25 % between simulation results and expected out-comes under some circumstances. A weighting factor of 0.5 could be applied to theRayleigh portion, in order to reduce its influence on the cost function and reduce thelikelihood of such undesirably large differences.

Future studies should include more factors for calibration of the contact lawparameters and add more DEM models to calibrate. Besides particle density androlling friction, parameters such as Young’s modulus and static friction coefficientscould be added to increase the degrees of freedom the optimization algorithm canprocess. One would then be truly able to evaluate the usefulness of this approach,since the state-of-the-art approach for calibration of DEM parameters istrial-and-error and human calibrators are very likely to lose track of the calibrationprocess; this is especially true when many factors and several DEM models areinvolved.

Acknowledgments This study received funding by the AiF (no. 18371 N/1), within the programfor sponsorship by Industrial Joint Research (IGF) of the German Federal Ministry of EconomicAffairs and Energy based on an enactment of the German Parliament.

Table 2 Residuals (10−2) and residual sums (in brackets) of the optimization algorithm. Residualsums are computed as sum of the absolute terms of AoR, BD and the corresponding Rayleigh timestep (RLTS) portion; mean values were used for each group. Note that a multi-variate optimizationalgorithm is used for the calibration process (cf. Rackl et al. [9])

Residual for main island isle_r isle_m

AoR −1.4 −0.86 −0.68 −0.68

BD 1.4 24.5 24.5 24.5

RLTS, 10 % 100 (103) – – –

RLTS, 33 % 100 (103) 44.6 (70.0) – 7.6 (32.8)

RLTS, 66 % 100 (103) 69.5 (94.9) 0.03 (25.2) 49.1 (74.3)

Verification of an Automated Work Flow … 207

[email protected]

A.2 Abdruck von Artikel 2

A-101

Page 122: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

References

1. Benvenuti, L., Kloss, C., Pirker, S.: Identification of DEM simulation parameters by artificialneural networks and bulk experiments. Powder Technol. 291, 456–465 (2016)

2. Eaton, J.W., Bateman, D., Hauberg, S., Wehbring, R.: GNU Octave version 4.0.0 manual: ahigh-level interactive language for numerical computations (2015)

3. Favier, J., Curry, D., LaRoche, R.: Calibration of DEM material models to approximate bulkparticle characteristics. In: Proceedings of the 6th World Congress on Particle Technology,Nuremberg, Germany (2010)

4. Groemping, U.: RcmdrPlugin.DoE: R Commander Plugin for (industrial) Design ofExperiments (computer software) (2014)

5. Hanley, K.J., O’Sullivan, C., Oliveira, J.C., Cronin, K., Byrne, E.P.: Application of Taguchimethods to DEM calibration of bonded agglomerates. Powder Technol. 210(3), 230–240(2011)

6. Johnstone M (2010) Calibration of DEM models for granular materials using bulk physicaltests. PhD thesis, University of Edinburgh, UK

7. Kloss, C., Goniva, C., Hager, A., Amberger, S., Pirker, S.: Models, algorithms and validationfor opensource DEM and CFD-DEM. Prog. Comput. Fluid Dyn. 12(2/3), 140–152 (2012)

8. R Core Team: R: A Language and Environment for Statistical Computing. R Foundation forStatistical Computing, Vienna (2014)

9. Rackl, M., Görnig, C.D., Hanley, K.J., Günthner, W.A.: Efficient calibration of discreteelement material model parameters using latin hypercube sampling and kriging.In: Papadrakakis, M., Papadopoulos, V., Stefanou, G., Plevris, V. (eds.) Proceedings ofECCOMAS 2016 (VII European Congress on Computational Methods in Applied Sciencesand Engineering), Crete Island, Greece (2016)

10. Yoon, J.: Application of experimental design and optimization to PFC model calibration inuniaxial compression simulation. Int J Rock Mech Min 44(6), 871–889 (2007)

208 M. Rackl et al.

[email protected]

A Anhang: Abdrucke der eingebundenen Artikel

A-102

Page 123: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

A.3 Abdruck von Artikel 3

A.3 Abdruck von Artikel 3

Rackl, M.; Hanley, K. J.: „A methodical calibration procedure for discrete element models“.

In: Powder Technology 307 (2017), S. 73–83.

c© Elsevier B.V. 2016

Reprint with permission of Elsevier B.V.

A-103

Page 124: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 125: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Powder Technology 307 (2017) 73–83

Contents lists available at ScienceDirect

Powder Technology

j ourna l homepage: www.e lsev ie r .com/ locate /powtec

A methodical calibration procedure for discrete element models

Michael Rackla,*, Kevin J. Hanleyb

aInstitute for Materials Handling, Material Flow and Logistics, Technical University of Munich, Boltzmannstraße 15, Garching 85748, GermanybInstitute for Infrastructure and Environment, School of Engineering, The University of Edinburgh, Edinburgh, EH9 3JL, UK

A R T I C L E I N F O

Article history:Received 14 September 2016Received in revised form 22 November 2016Accepted 26 November 2016Available online 29 November 2016

Keywords:Discrete element methodCalibrationOptimizationKrigingLatin hypercube samplingMaterial test

A B S T R A C T

Researchers and engineers have widely adopted the discrete element method (DEM) for simulation of bulkmaterials. One important aspect in such simulations is the determination of suitable material and contactlaw parameters. Very often, these parameters have to be calibrated because they are difficult to mea-sure or, like rolling friction, do not have a physical analogue. Moreover, coarse-grained particle models arecommonly used to reduce computational cost and these always require calibration. Despite its disadvan-tages, trial and error remains the usual way to calibrate such parameters. The main aim of this work isto describe and demonstrate a methodical calibration approach which is based on Latin hypercube sam-pling and Kriging. The angle of repose and bulk density are calibrated for spherical glass beads. One uniquefeature of this method is the inclusion of the simulation time-step in the calibration procedure to obtaincomputationally efficient parameter sets. The results show precise calibration outcomes and demonstratethe existence of a solution space within which different parameter combinations lead to similar results.Kriging meta-models showed excellent correlation with the underlying DEM model responses. No correla-tion was found between static and rolling friction coefficients, although this has sometimes been assumedin published research. Incorporating the Rayleigh time-step in the calibration method yielded significantlyincreased time-step sizes while retaining the quality of the calibration outcome. The results indicate that atleast particle density, Young’s modulus and both rolling and static friction coefficients should be used forcalibration; trial-and-error would be highly inefficient for this number of parameters which highlights theneed for systematic and automatized calibration methods.

© 2016 Elsevier B.V. All rights reserved.

1. Introduction

Although the discrete element method (DEM) was developed inthe 1970s [1], it is only recently that researchers and engineers havebeen able to run DEM simulations of sufficiently large size and com-plexity to be practically useful. This has caused a rapid growth inthe adoption of DEM [2], enabled by continual advances in afford-able computational power. Huge numbers of studies have shownthe usefulness of DEM for modelling the behavior of bulk solids inindustrially relevant systems such as fluidised beds, silos, mixers ormills.

One major benefit of DEM is that the simulations require speci-fication of a relatively small number of microstructural parameters.However, it can be difficult to establish suitable values for all of thesemodel inputs. For example, input parameters cannot be obtainedby laboratory testing for coarse-grained simulations in which the

* Corresponding author.E-mail address: [email protected] (M. Rackl).

particle diameters are increased beyond their physical values toreduce the computational requirements of a simulation, e. g., [3–5].Even if particle diameters are simulated accurately, other parameterscan be difficult to relate to physical measurements, e. g., numericaldamping coefficients [6] or rheological parameters required in theforce–displacement laws [7]. The interparticle friction coefficient isoften increased to unphysically large values in an attempt to cap-ture particle irregularity [8]. Additional parameters which lack aphysical basis are usually needed when grain crushing [9] or rollingresistance [10] are considered in the model.

When the foregoing limitations of laboratory experiments to sup-ply model input parameters are considered, it is unsurprising thatmost DEM simulations contain parameters which can be obtainedonly by calibration. Calibration involves varying the unknownparameters until a satisfactory match has been achieved betweenthe simulation results and the corresponding physical measurementsfor the response(s) of interest. Calibration is often done in an inef-ficient manner based on trial and error. Trial-and-error calibrationhas many obvious disadvantages [7]: it is not known in advancehow many simulations will be needed for calibration; the success

http://dx.doi.org/10.1016/j.powtec.2016.11.0480032-5910/© 2016 Elsevier B.V. All rights reserved.

A.3 Abdruck von Artikel 3

A-105

Page 126: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

74 M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83

of the method depends on the modeller’s experience; little, if any,mechanistic insight is gained; the calibrated parameters may besuboptimal; and using a trial-and-error approach rapidly becomesimpractical as the number of parameters increases. Furthermore,DEM simulations can be very computationally expensive so runningmore simulations than essential for calibration is undesirable.

The significant disadvantages associated with trial-and-errorcalibration of DEM input parameters have motivated researchinto alternative approaches based on design of experiments (DoE)methods. Yoon [11] uses response surface analysis and a Plackett–Burman experimental design to identify suitable parameters to sim-ulate uniaxial compression of bonded rock. Favier et al. [12] andJohnstone [13] both use DoE methods to calibrate DEM models basedon experimental measurements. Benvenuti et al. [14] train an arti-ficial neural network for DEM simulation parameter identification.However, none of these calibration approaches are widely used inindustry where ad hoc trial-and-error methods remain predominant.

In this paper, a novel calibration procedure is described which isbased on Latin hypercube sampling and Kriging [15]. This workflowwas designed to be automated, i. e., to run efficiently with mini-mal user intervention. It was implemented using purely open-sourcesoftware including LIGGGHTS [16] and GNU Octave [17]. Both theopen-source implementation and the high level of automation areintended to encourage the widespread adoption of this calibrationmethod. Another novel aspect is the inclusion of the simulation time-step in the calibration process. In most cases, DEM adopts an explicit,conditionally-stable time-stepping algorithm. The size of the largesttime-step which maintains numerical stability is strongly depen-dent on the particle density and stiffness. Considering the simula-tion time-step during calibration means that optima requiring smalltime-steps to maintain stability are disfavoured. This ensures thatthe calibration process is prevented from converging to a solutionwhich causes the simulation to run prohibitively slowly.

The main aim of this paper is to describe and demonstrate anovel calibration method. Spherical glass beads are used as the bulkmaterial. Two responses are calibrated, angle of repose and bulk den-sity, while simulation time-step is also considered during calibration.Subsidiary aims are as follows: (i) to demonstrate that significantlylarger time-steps can be achieved by explicitly including the time-step as a factor in the calibration process, while still achieving anexcellent match between the experimental data and the model;(ii) to show that parameter sets which differ substantially can yieldsimilar outcomes; (iii) to explore interactions among the DEM inputparameters being calibrated.

This calibration approach is generally applicable to all typesof DEM simulation. The example presented in this paper is for aconventional DEM simulation in which each simulated particle rep-resents one physical particle. However, the method has even greaterpotential for coarse-grained simulations for which the number ofparameters requiring calibration can be very large.

2. Materials and methods

This section contains a brief overview of DEM, followed by a moredetailed description of the specific model considered in this study.

2.1. Discrete element method

Both hard-sphere and soft-sphere DEM simulations are possi-ble; the latter are more frequently used and are the focus of thispaper. The particle geometry is idealized to reduce the computa-tional requirements: often spheres are used in three-dimensionalsimulations. The density and stiffness of each particle can differ. Theparticles are not permitted to deform during the simulation; insteaddeformation is captured by allowing the particles to overlap at con-tacts with surrounding particles and boundary walls. DEM is driven

by a time-stepping algorithm, often a central difference, velocity–Verlet scheme. During each time-step [18], interparticle forces areevaluated at contact points based on a defined force–displacementlaw. This contact model is almost always based on either a linear,Hookean spring or a nonlinear, Hertzian spring along the contactnormal. The interparticle contact forces are summed, along withbody forces such as gravity, to calculate resultant forces for eachparticle. Then Newton’s Second Law is applied to determine thetranslational and angular particle accelerations which are numeri-cally integrated to find particle velocities and displacements. Thesedisplacements are used to update the particle positions at the endof each time-step. Individually, these calculations are very straight-forward. However, as millions of particles may be simulated usingtime-steps of the order of nanoseconds, the computational effort canbe very considerable to simulate a short time period.

2.2. Investigated DEM model of this study

All simulations were run using the public version of theLIGGGHTS [16] DEM code. A Hertz–Mindlin contact model waschosen for these simulations along with an elastic–plastic spring–dashpot (EPSD) rolling friction model. This model incorporates vis-cous damping in its formulation [19]. The critical time-step for eachsimulation was computed using Eq. (1) where G is the shear modu-lus, q is particle density, m is Poisson’s ratio and r is the radius of thesmallest particle.

dtr =pr

√qG

0.1631m + 0.8766(1)

The time-step used for the DEM simulations was taken as a quar-ter of this critical Rayleigh time-step. For this paper, it is assumedthat the time-step is solely a function of the parameters used inEq. (1). Although it is known that the simulation time-step mustbe reduced to ensure stability when particle relative velocities arelarge, the nature of this reduction is currently unquantified. In caseswhere the relative velocities are large, it is noted that the factor bywhich Eq. (1) is multiplied (0.25) may need to be reduced to maintainstability.

The effect of this time-step on the calibration was controlled bymeans of a weighting factor. This weighting factor, WRL, was one ofthe seven factors adjusted in the calibration process. Apart from theRayleigh time-step, two responses were calibrated: bulk density andangle of repose. The system shown schematically in Fig. 1 was simu-lated to obtain these responses. It consists of a horizontal steel platewith a steel cylinder of diameter 100 mm resting on top so that theplate obstructs the bottom of the cylinder. A rigid ring of height 3mm and diameter 100 mm is affixed to the steel plate to prevent par-ticles from rolling away on the flat surface. Each simulation is run inthe following manner. Particles of diameter 5 mm are poured into thecylinder under gravity (g=9.81 m s−2) to a height exceeding 50 mm

Fig. 1. Schematic of the three-dimensional simulated system used to measure bulkdensity and angle of repose.

A Anhang: Abdrucke der eingebundenen Artikel

A-106

Page 127: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83 75

and the system is allowed to settle. Any particles above 50 mm aresubsequently removed from the simulation domain and the systemis given time to settle again. The poured bulk density is found usingthe total particle mass and fill height. Then the cylinder is raisedat a constant speed of 10 mm s−1 so that a heap is formed underthe influence of gravity. After the system has settled, monochromescreenshots of the top-down perspective and side view are created.The angle of repose of the heap is found using the verified imageprocessing algorithm described in Appendix A. The bulk density andangle of repose are compared with literature values for glass beads:1500 kg m−3 and 22◦, respectively ([20, p. 16], [21]). Table 1 showsthe values of the model input parameters which were fixed for allsimulations.

Seven parameters were used in the calibration process: the parti-cle density, the Young’s modulus, the static friction coefficients androlling friction coefficients between two particles and between par-ticles and walls, and the weighting factor controlling the effect ofRayleigh time-step on the calibration (WRL). There are an infinitenumber of parameter sets which would satisfy the requirements forbulk density and angle of repose. By considering Rayleigh time-step,the single parameter set which maximised the time-step, and hencethe efficiency of the simulation, was favored. Although particle den-sity is often easily measured, non-physical values may be used inquasi-static simulations to increase the size of the critical time-step:so-called ‘density scaling’. Furthermore, for coarse-grained simu-lations, the density required for the simulated particles inevitablydiffers from that of the physical particles so particle density usuallyrequires calibration for coarse-grained simulations. The experimen-tal plan which describes exactly how these parameters were variedis discussed in Subsubsection 2.3.4.

2.3. Calibration process

The calibration process described in this paper includes samplingthe model to be calibrated at randomly, yet evenly, distributed pointsand adopting Kriging as a meta-model technique.

2.3.1. Latin hypercube samplingLatin hypercube sampling was first described by McKay et al. [22].

The idea is to randomly, yet evenly, distribute samples in an N-dimensional factor domain.

Let Vk ∈ [vk,L; vk,U] (where vk,L < vk,U and vk,L, vk,U ∈ R) be the kthinterval of interest of a number of factors N ∈ N+ in which n ∈ N+

sample locations are to be distributed. First of all, the domain for eachVk needs to be split into n evenly-spaced, non-overlapping subdo-mains Wk,i. The width wk for each Vk

′s subdomain can be determinedfrom Eq. (2) and the interval of the ith subdomain Wk,i is given byEq. (3).

wk =vk,U − vk,L

n(2)

Table 1DEM input parameters which were fixed for all simulations where p–p is for aparticle–particle contact, p–w is for a particle–wall contact and RF is the rollingfriction model.

Parameter Value

Poisson’s ratio 0.22Coefficient of restitution (p–p) 0.89Coefficient of restitution (p–w) 0.60Viscous damping coefficient of RF (p–p) 0.25Viscous damping coefficient of RF (p–w) 0.25

Wk,i =

{[(i − 1)wk + vk,L; iwk + vk,L], i ∈ [1; n − 1]

[(n − 1)wk + vk,L; vk,U], i = n(3)

A random value xk,i is drawn from each of the subdomains Wk,i. Arandom set is selected from the permutation of all xk,i such that eachWk,i occurs once. This leads to n tuples which form an N-dimensionalLatin (hyper) cube, where each tuple element is unique and thetuples are well-distributed.

In order to ensure an evenly-distributed set of tuples, the Octavepackage stk [23] created 5000 Latin hypercube designs per includedcalibration factor, following the process described above. Subse-quently, the distance dc between each tuple in a respective designwas computed according to the Euclidean norm (Eq. (4)). In Eq. (4), pand q are tuples and pj, qj the jth tuple. The distance dc was computedfor all h tuple combinations per design.

dc(p, q) =

√√√√√h∑

j=1

(pj − qj)2 (4)

dc was used as a criterion to select the design where the minimumdistance of all tuple combinations was the largest. Thus, the designselected for the sample set was the one whose minimum distance dselsatisfied Eq. (5) for all designs. This is called the ‘MAXIMIN’ criterionin the literature, e. g., [24, p.183 ff.].

min(dsel) = max (min(dc)) (5)

2.3.2. KrigingKriging is a general term for a collection of statistical regression

methods. There exist different modifications [25, p. 154], some ofwhich are not clearly defined. The Kriging method used for this workis Universal Kriging or Kriging with drift. As with every regressionmethod, the main aim is to predict values at unsampled locationsfrom a given set of sample locations and corresponding sampleresponse data.

The theoretical background described in this section is given instandard statistics references, e. g., [25, p. 195 ff.]. In Universal Krig-ing, the responses Zs(xs) at a number, N, of sample locations xs areconsidered to consist of a deterministic part S(xs) and a random partR(xs). Within the scope of this study, S(xs) in Eq. (6) represents a first-order polynomial function with K coefficients bi, which are initiallynot known, as well as the functions fi. Hence, Eq. (6) can be rewrittenas Eq. (7).

Zs(xs) = S(xs) + R(xs) (6)

Zs(xs) =K∑

i=1

bifi(xs) + R(xs) (7)

Eq. (7) can be expressed for the response data of interest Zu asin Eq. (8). Zu depends on the unsampled locations of interest xu, thedesign matrix Dlhs as obtained from Latin hypercube sampling anda vector of coefficients b. Using an anisotropic Matérn covariancematrix [26, p. 12–14] , the coefficients and weights for b and R(xu) arecomputed by means of the restricted maximum likelihood method(ReML, [26, p. 170])). Note that the stk package in Octave allows forestimation of (measurement) noise from the response data, whichwas done for this study. By including this information, the Krigingsurrogate models implicitly change their property from interpolationto approximation [27, p. 156].

Zu(xu) = Dlhsb + R(xu) (8)

A.3 Abdruck von Artikel 3

A-107

Page 128: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

76 M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83

2.3.3. Calibration approachThe general calibration approach followed by a human calibra-

tor is as follows. Initially, DEM models have to be created whichrepresent physical measurement setups. These models are neededto generate the desired response(s). In the next step, the materialand contact law parameters to be used for calibration are selected.Typically, the calibrator wishes to minimize the number of cali-bration parameters, since each additional parameter increases thecomplexity of the calibration task. After this, material parameterswith which to start the calibration are either measured or taken fromliterature. Very often, only parameter ranges are available, as thereis always some form of variation in the measurement data. Once theparameters have been chosen and set, the DEM models are sampledusing different parameter sets to gain insight into which parameteror combination of parameters influences the responses. As soon asthe relationship between calibration parameters and response val-ues has been established, the values of the calibration parameters areadjusted until the responses match the experimental values withina desired tolerance, e. g., standard error of the measurement. It isobvious that the sampling process as well as parameter adaptationare highly repetitive tasks which involve a lot of data handling. Thus,these steps were chosen to be automatized. Using Latin hypercubesampling and Kriging, the main aim was to develop a versatile androbust calibration process.

In order to convert the widely-used trial-and-error approachfor DEM material parameter calibration into a method suitable forautomatization, three presumptions were made. (i) If no parametervalue is available or it varies with different bulk solid batches, theperson calibrating will be likely to find this parameter to lie withinan interval, rather than being a constant value. This is often the case

for friction values, which are influenced by many micromechani-cal factors, for example. Furthermore, when physical measurementsare unavailable or difficult to obtain, the calibrator will find a rangeof values in the literature. Uncertainty in the order of magnitudeof a parameter can be reflected by increasing the interval width.Nonetheless, increasing it for the particle density or Young’s mod-ulus has to be done carefully since both also influence the Rayleightime-step. Excessively wide intervals for either of these parameterscould impose excessive weight on the Rayleigh time-step during thecalibration [28]. (ii) Incorporating more experimental data for thecalibration will increase the validity of the calibrated DEM parame-ter set. The calibration procedure is therefore designed to work withseveral DEM models and responses simultaneously. (iii) A humancalibrator is incapable of efficiently capturing effects of a single factorand the interactions at the same time, particularly if there are severalresponses. However, this is the most important prerequisite whenworking with multivariate data and the key to reducing the num-ber of calibration runs to a minimum. As a consequence, the taskof keeping track of effects and predicting the results of parameterchanges is carried out by means of a meta-model (Kriging) in combi-nation with suitable sampling (Latin hypercube) as well as numericaloptimization.

Fig. 2 outlines the workflow of the three phases of the calibra-tion process. After the calibration parameters and their respectiveintervals are set by the user, the process requires no further userintervention. It starts by generating a set of sample parameter setsbased on Latin hypercube sampling, forwards them to the DEM mod-els and collects the response data (sampling phase). In the next step,the Kriging meta-models are parameterized with the sample param-eter sets and corresponding responses. Using these meta-models, an

Fig. 2. Workflow of the calibration process (adapted from [15]).

A Anhang: Abdrucke der eingebundenen Artikel

A-108

Page 129: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83 77

optimization process is initiated (1st optimization phase). The start-ing value of the optimization is the mean value of each parameterinterval. The idea is to use the computationally cheap meta-modelsto identify a promising starting value for the DEM optimization stepwhich is far more computationally expensive. Finally, the optimalparameter set from the meta-models is used as starting value forthe optimization with the actual DEM models (2nd optimizationphase). This is to verify the prediction from Kriging and refine thequantitative calibration outcome.

For a conventional DEM simulation without coarse graining, it ispossible that the number of parameters requiring calibration maybe very small. For cases with only one or two unknown parame-ter values, the development of Kriging meta-models is unnecessarilyexpensive. This calibration method requires a larger set of unknownparameters in order to be viable.

Optimization was carried out using the multi-objective Levenberg-Marquardt residual minimization algorithm [29,30], as implementedin the GNU Octave package optim [31]. The optimization was setto terminate when the improvement in the objective function wasless than 2 % between two iterations. The reason for this was toavoid a large number of optimization steps, of which the last oneswould only improve the absolute calibration outcome marginally.The maximum absolute tolerance between the desired values and thecalibrated responses should be specified by the calibrator; becausebulk solid measurements can feature scatter of several percent, itwould be unnecessary and wasteful to calibrate the model parametersmeticulously.

The same multi-objective cost functions are used for both opti-mization steps. Response values are taken into account using Eq. (9),where si is the DEM response and mi(> 0) is the correspondingdesired experimental value.

ci =si − mi

mi(9)

With regard to computational efficiency of the calibrated DEMparameter set, a large value of the Rayleigh time-step size is desired.However, unlike angle of repose or bulk density, there exists no glob-ally optimal Rayleigh time-step size since Eq. (1) is unrestricted in itsmaximum value. The cost function used in this study hence seeks toobtain the largest possible value with regard to the initially specifiedparameter intervals. It is shown in Eq. (10), where rmax and rmin arethe maximum and minimum possible Rayleigh time-steps, respec-tively, dtr is the Rayleigh time-step of the current parameter setand WRL is a weighting factor, subject to investigation in this study.The authors are unaware of any prior studies where the Rayleightime-step size was actively considered as a calibration target.

ti = WRL •rmax − dtr

rmax − rmin(10)

The approach described above is generally applicable. The specificexample used to demonstrate its usefulness contains seven unknownparameter values as described in Subsection 2.2. The experimentalplan for this specific case is given in Subsubsection 2.3.4 and theresults are presented and discussed in Section 3.

2.3.4. Experimental plan for numerical experimentsThe experimental plan of this study is listed in Table B-1 in the

appendix. It was created using the Design of Experiments (DoE) pack-age RcmdrPlugin.DoE [32], of the statistical programming softwareR [33]. The Design of Experiments comprises four factors on two lev-els and two factors on three levels and is based on an orthogonalarray (L72.2.56.3.2 in RcmdrPlugin.DoE ), which was optimized for aminimum of three- and four-factor interactions. The numbers of gen-eralized words of lengths 3, 4 and 5, as returned by R, are 0.00, 0.27

and 0.49, respectively. Consequently, reducing the number of exper-iments to 72, as compared to 144 in a full-factorial design, resultedin a well-balanced experimental plan with only slight confounding.

The factors and their respective levels are listed below. For thefour factors on two levels, the levels were 0 and 1, which indicate ifthe respective parameter was included for calibration (1) or not (0).

WRL weighting factor for the Rayleigh time-step withinEq. (10); ∈[0, 0.5, 1].

SPP number of Latin hypercube samples per calibration param-eter; note that particle density and particle to parti-cle rolling friction were always included for calibration;∈[3, 6, 9].

MU_PP static friction between particle and particle: 0 or 1.MU_PW static friction between particle and wall: 0 or 1.YM Young’s modulus: 0 or 1.RF_PW rolling friction between particle and wall: 0 or 1.

The number of sample locations was determined according toEq. (11), where S is the number of sample locations generated bythe Latin hypercube sampling algorithm, fcal is the number of DoEfactors included in the calibration and SPP is the factor from theexperimental plan. Note the specification of (fcal +2) in Eq. (11): par-ticle density and the rolling friction between particles (RF_PP) werealways included for calibration and are therefore omitted from theexperimental plan shown in Table B-1.

S = (fcal + 2) • SPP (11)

If a parameter were used for calibration, its value interval wasselected from the pre-defined list in Table 2. These intervals weredefined by the authors according to published data from exper-iments and DEM simulations with glass beads [34–52]. RecallingSubsubsection 2.3.3, this is a typical situation where data from liter-ature are ambiguous and the calibrator knows an approximate rangefor most of the calibration parameters. In order to speed up the com-putations, the Young’s modulus found in literature was scaled downby two orders of magnitude; it was found in preliminary simulationsthat the results for the angle of repose and the bulk density are unaf-fected by this which agrees with published findings [53]. When aparameter was excluded from calibration, its value was set constant.These values were MU _PP = 0.2, MU _PW = 0.2, RF _PW = 0.01,YM= 5.06 × 108 Pa.

For each of the single runs specified in the experimental plan inTable B-1, a full calibration process as described in Subsubsection2.3.3 was set up and run on a computer with 12 CPUs. The calibrationscript was given the desired values for the bulk density and angleof repose, as well as the respective calibration parameter intervals.The calibration process then took place without any user interven-tion. The overall computation time was approximately 350 h for all72 runs.

Table 2Set parameter intervals if a parameter is included in the calibration; DENS: particledensity.

Parameter Interval Unit Included?

DENS [2400; 2600] kg m−3 AlwaysMU_PP [0.1; 0.3] - acc. to DoEMU_PW [0.1; 0.3] - acc. to DoERF_PP [0.001; 0.1] - alwaysRF_PW [0.001; 0.1] - acc. to DoEYM [4.175; 6.500] 108 Pa acc. to DoE

A.3 Abdruck von Artikel 3

A-109

Page 130: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

78 M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83

BD

AoR

0 10 20 30

absolute difference from target value (%)

Fig. 3. Boxplots of the absolute differences between the desired and calibrated angleof repose (AoR) and bulk density (BD).

3. Results and discussion

In general, the calibration procedure worked reliably and led tosatisfactory calibration outcomes. Various correlations and the effectof the Rayleigh time-step were investigated.

3.1. General findings related to the calibration process

For all cases both the Kriging and DEM optimization were termi-nated due to the improvement in the objective function being lessthan specified.

The absolute difference between desired and calibrated angle ofrepose and bulk density for all of the 72 experiments are depicted inthe boxplots in Fig. 3. It can be seen that especially the bulk densitywas calibrated very precisely. The angle of repose outcome showsa greater scatter; however at least 75 % of the runs led to an angleof repose value which was within a maximum tolerance of around15% of the desired value of 22◦. To some extent, this greater scat-ter can be explained by the angle of repose being somewhat hardto reproduce in simulations as well as physical experiments. Therelative differences of the bulk density and angle of repose are sim-ilar in magnitude to those which can be expected from physicalmeasurements.

These values for the angle of repose and bulk density wereobtained by a wide variety of parameter sets. Fig. 4 depicts a box-plot for each parameter used in the calibration. Values of the particledensity and Young’s modulus tend to lie at the upper and lower endsof their corresponding intervals, respectively. This is likely due tothe influence of the optimization criterion of the Rayleigh time-step,which favors high particle density and low Young’s modulus values

Table 3Pearson correlation coefficients between DEM optima and Kriging optima for materialmodel and contact law parameters.

Parameter Correlation coefficient

DENS 0.9465MU_PP 0.9987MU_PW 0.9999RF_PP 0.9999RF_PW 1.0000YM 0.9969

to obtain a large time-step (cf. Eq. (1)). The static and rolling fric-tion values between particle and wall (MU_PW, RF_PW) are spreadout over almost the entirety of their interval. This indicates that theireffect on the calibration process is negligible.

The material model and contact law parameters of the Krigingmodels and the DEM model show almost perfect correlation. Rele-vant correlation coefficients are listed in Table 3. This means that theKriging meta-models were able to predict the optimal parametersprecisely. Table 4 lists the correlation coefficients between DEM andKriging for the angle of repose, bulk density and Rayleigh time-step.Bulk density and Rayleigh time-step agree very well, while the corre-lation between the angle of repose responses is much lower at 0.72.This underlines the poor reproducibility of the angle of repose. Over-all, the Kriging functions were able to predict calibration parametervalues and calibration target responses reliably and accurately.

3.2. Multivariate analysis of variance results

Using the six calibration parameters as factors and the angle ofrepose, bulk density and Rayleigh time-step as responses, a multi-variate analysis of variance (MANOVA) was carried out. The under-lying model took into account primary factors as well as two-factorinteractions. The variance was analyzed for the Kriging as well as theDEM data and results are listed in Table 5, where a colon betweentwo factors denotes their two-factor interaction. The Kriging meta-models show significant effects for all of the single factors at thea = 0.05 level, but none of the two-factor interactions. This is themain difference compared to the DEM model, where the two-factorinteractions DENS:MU_PP, DENS:RF_PP, DENS:YM and MU_PP:RF_PPwere also found to be significant while MU_PW was not. TheseMANOVA results again confirm that the Kriging meta-models are asuitable means to predict the behavior of the DEM model. Nonethe-less, the second optimization process, which uses the actual DEMmodel, is still required to refine the calibration outcome.

Fig. 4. Boxplots for all calibrated parameters. Outliers are depicted as large black dots, while small gray dots represent the actual values.

A Anhang: Abdrucke der eingebundenen Artikel

A-110

Page 131: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83 79

Table 4Pearson correlation coefficients between the response data of the DEM model andKriging output.

Response value Correlation coefficient

Angle of repose 0.7186Bulk density 0.9413Rayleigh time-step 0.9943

3.3. Correlations between friction parameters used for calibration

Friction values for different pairs of materials are often set equal(e. g., [35,38]), i. e., setting the values for MU_PP equal to those forMU_PW. This may be due to two reasons. Measured values couldbe unavailable or have no physical analogue in the case of rollingfriction. Alternatively, it could be an attempt to reduce the num-ber of calibration parameters and, thus, decrease the complexity ofthe calibration process, since satisfactorily calibrating many param-eters is difficult with trial-and-error methods. Table 6 shows thePearson correlation coefficients between static and rolling frictioncoefficients of the DEM model. The largest magnitude of correlationby far was found between MU_PP and RF_PP at −0.659, while allother correlation coefficients were negligible (< 0.25). This indicatesthat there is no sensible justification for setting particle–particleand particle–wall friction coefficients equal to each other and thatcalibration is required for each single friction value.

3.4. Effect of the Rayleigh time-step cost function

This study is the first to actively include the Rayleigh time-stepsize as a calibration criterion for DEM material model calibration.Fig. 5 depicts the effect of the weighting factor, WRL, on the Rayleightime-step, angle of repose and bulk density. Including the Rayleightime-step in the optimization (WRL = 0.5 or 1) leads to a signif-icantly larger time-step. This is beneficial for further application ofthe calibrated parameter set, as fewer time-steps will be required tosimulate processes of any fixed duration. While the Rayleigh time-step is considerably larger, the angle of repose calibration outcomeis not significantly affected. The bulk density is largely influencedby the particle density, so as the weighting factor of the Rayleightime-step increases, the bulk density similarly increases. This is inagreement with the findings reported by Rackl et al. [28].

Table 5MANOVA results; p-values and levels of significance which are indicated at thefollowing a levels: ***/0.001, **/0.01, */0.05, ./0.1.

Factor Kriging DEM

DENS 2.2e−16*** 2.2e−16***MU_PP 2.2e−16*** 2.2e−16***MU_PW 0.0219* 0.0969.RF_PP 2.2e−16*** 2.2e−16***RF_PW 0.0001*** 8.98e−9***YM 2.2e−16*** 2.2e−16***DENS:MU_PP 0.2951 5.52e−06***DENS:MU_PW 0.8163 0.3043DENS:RF_PP 0.5870 0.0323*DENS:RF_PW 0.2674 0.1417DENS:YM 0.4780 0.0207*MU_PP:MU_PW 0.7802 0.0763.MU_PP:RF_PP 0.2428 4.99e−10***MU_PP:RF_PW 0.9223 0.1565MU_PP:YM 0.1087 0.1252MU_PW:RF_PP 0.9745 0.0868 .MU_PW:RF_PW 0.7504 0.6465MU_PW:YM 0.4605 0.2485RF_PP:RF_PW 0.3476 0.5765RF_PP:YM 0.3305 0.5466RF_PW:YM 0.5656 0.5098

Table 6Pearson correlation coefficients between friction parameters.

Parameter combination Correlation coefficient

MU_PP:MU_PW 0.239MU_PP:RF_PP −0.659MU_PP:RF_PW 0.121MU_PW:RF_PP 0.0830MU_PW:RF_PW 0.184RF_PP:RF_PW 0.229

Nevertheless, the absolute difference between WRL = 0 andWRL = 1 is only a few percent for the bulk density. Only two of thespecified parameters in Table 2, particle density (DENS) and Young’smodulus (YM), affect the Rayleigh time-step. Since the YM signifi-cantly influences neither the bulk density nor the angle of repose(cf. second to last paragraph in Subsubsection 2.3.4), its value willthus always tend to favor a large Rayleigh time-step due to the costfunction specified in this work. This is supported by the value rangefor the YM in Fig. 4, which clearly shows that the YM was consis-tently chosen at the lower end of its interval. Thus, the only effectiveparameter to increase the Rayleigh time-step is DENS which hasa much smaller effect on the time-step. The absolute effect of theRayleigh-related part of the cost function on the Rayleigh time-stepwould presumably be more dominant if stiffness-related measure-ment data were to be calibrated and a compromise between stiffnessand Rayleigh time-step had to be found.

3.5. Efficiency of the calibration process

The efficiency of the overall calibration process can be assessedfrom the number of times the DEM model has to be run. DEM mod-els are typically computationally expensive; to save time duringthe calibration process, it is desired to achieve the calibration aimswith the smallest number of runs possible. In the calibration processdescribed in this study, the number of overall DEM model runs canbe expressed as a sum of two phases. The first phase is related to thenumber of sample points of the Latin hypercube sampling and therelated number of runs is known a priori through Eq. (11). The secondoptimization phase of the procedure is based on the DEM model. Thetotal number of iterations to find a satisfactory parameter set is onlyknown after the calibration process is complete.

The number of required DEM model runs during the optimiza-tion step over the number of Latin hypercube samples per calibrationparameter (SPP) is shown on the left of Fig. 6. This number variesbetween approximately 10 and 55. It somewhat decreases with moreinitial samples for WRL = 0 and WRL = 0.5 and its dependency onthe Rayleigh time-step weighting factor (WRL) cannot be estimatedfrom the present results. In theory, the Kriging meta-models will beable to yield more precise predictions if more samples were used toparametrize them. Hence the number of required optimization runsshould decrease as the number of samples increases, which is sup-ported by the findings for WRL = 0 and WRL = 0.5. However, theresults for WRL = 1 do not show this trend.

On the right side of Fig. 6, the overall number of DEM modelruns is depicted. This equals the sum of sampling runs and opti-mization runs and it increases with more initial samples. Thus, eventhough the number of required optimization runs decreases with anincreased number of samples, this effect is not large enough to com-pensate for the increased number of initial sampling runs. Since thesmallest amount of overall runs is obtained from only three samplesper parameter, the authors suggest using this value for the describedworkflow in the future.

The described calibration procedure required an average of 51DEM model runs to finish, where all required steps were performedautomatically. With an average runtime of six minutes per run, ittherefore took about 5 h to identify a set of parameters.

A.3 Abdruck von Artikel 3

A-111

Page 132: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

80 M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83

Fig. 5. Boxplots showing the effect of the weighting factor of the Rayleigh time-step cost function on the Rayleigh time-step (left), angle of repose (middle) and bulk density(right).

Fig. 6. Number of required DEM model optimization runs (left) and overall DEM model runs (right) over the number of samples per parameter (SPP), depicted as boxplots.

Fig. 7 shows the influence of SPP on the calibration outcome of theangle of repose and bulk density. There is no significant effect of SPPon the precision of the calibration results. However, this may changeif SPP is reduced below some unknown critical value which dependson the DEM model.

4. Conclusions

The main aim of this study was to demonstrate the usefulness of anovel calibration method for DEM material model parameters, basedon angle of repose and bulk density tests. Various parameter combi-nations were tested in a design of experiments in order to assess theinfluence of the number of initial samples, to evaluate the influence

of considering the time-step within the optimization process and toexplore interactions among the DEM parameters.

The calibration method yielded a satisfactory outcome for theangle of repose and bulk density, comparing with the target values.Moreover, the outcome can be considered very good when takinginto account the typical experimental scatter for the bulk density(approx. 5–10 %) and the angle of repose (± 1◦–2◦).

When the Rayleigh time-step was included in the calibration,the time-step increased significantly, while the target values of theangle of repose and bulk density were still achieved satisfactorily.This is important to obtain efficient DEM parameter sets because,for a process with a fixed duration, each increase of the criticalRayleigh time-step size correspondingly reduces the number of over-all required iterations and hence the computational time.

Fig. 7. Boxplots of the effect of the number of samples per parameter (SPP) on the calibration outcome of the angle of repose (left) and bulk density (right).

A Anhang: Abdrucke der eingebundenen Artikel

A-112

Page 133: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83 81

Fig. 8. Side view of a bulk solid heap formed under gravity with the angle of repose a.

No correlation was found among the friction coefficients. Hencesetting pairs of these coefficients to the same value for the sakeof decreasing the parameter count lacks justification, at least withregard to the angle of repose and bulk density.

The results from this paper reveal that there exists a solutionspace of feasible DEM parameter sets which lead to similar resultsfor the desired calibration targets (angle of repose, bulk density).It was demonstrated by Rackl et al. [28] that including more tar-get values reduces the variety of parameter sets of such a solutionspace. It should be clarified that in order to represent the physicalbehavior of a bulk solid, appropriate and sufficient experimental dataare required. Calibration should be carried out based on as manyphysical experiments as possible. Considering six or more param-eters, as done in this study, renders the often used trial-and-errorapproach highly inefficient and highlights the need for systematicand automatized calibration methods.

Further research should focus on two major aims. The first aimwould be to add more DEM models to the calibration procedure,e. g., a shear cell or triaxial compression test, and study the effect onthe calibration outcome. Adding more DEM models and correspond-ing measurement results to the calibration process will enable thecalibrated DEM parameter set to be employed for a wider range ofapplications. If, for example, the stiffness behavior is of importance,then a uniaxial compression test might be added. It shall be notedthat calibration is only sensible if the laboratory tests are somewhatrepresentative of the foreseen application to be simulated. As a sec-ond aim, the number of required calibration runs of the DEM modelsshould be minimized. Apart from the number of initial Latin hyper-cube samples, there are parameters which have not been taken intoaccount in this study. For example, the optimization algorithm couldbe altered, since numerous DEM model runs can be attributed togradient computation of the Levenberg-Marquardt scheme. Another

option is to take the measurement error from the bulk materialexperiments into account and adapt the tolerance settings of theoptimization algorithm accordingly; for example, there is no needto calibrate the angle of repose as precisely as a few percent if theexperimental scatter is ±10%.

5. Availability of the calibration procedure scripts

The GNU Octave scripts used in this study are scheduled to bereleased as open-source code after AiF project no. 18371 N/1 ends inspring 2017.

Conflict of interest

There is no conflict of interest.

Acknowledgment

This study received funding by the AiF (no. 18371 N/1), withinthe program for sponsorship by Industrial Joint Research (IGF) of theGerman Federal Ministry of Economic Affairs and Energy based on anenactment of the German Parliament.

Appendix A. Angle of repose measurement using imageprocessing

As shown in Fig. 8, the angle of repose a is generally defined asthe angle between the horizontal and the lateral surface of a heapformed under gravity. The basic assumption from continuum theoryis that the shape of the heap resembles a cone.

The following prerequisites were necessary to carry out theautomatized angle of repose measurements in this study. A sphereof 50mm diameter was added as a reference to the simulation resultof a settled heap, such that it did not intersect with the heap. Twohigh-resolution bitmap graphics were created from LIGGGHTS, oneshowing the heap in a top-down view (Fig. 9a) and the other ina side view (Fig. 9b). For ease of the image processing, the colorswere set to black for particles and white for the background; neitherthe cylindrical container nor the bottom plate were exported intothese graphics. The Octave package image [54] was used for imageprocessing.

For measuring the angle of repose, the approach described in anFEM standard [55] was adapted. In this standard, the angle of reposeis determined based on the heap’s diameter and height. Thus, the

Fig. 9. Top-down view (a) and side view (b) of an exemplary heap from the study.

A.3 Abdruck von Artikel 3

A-113

Page 134: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

82 M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83

image processing workflow was divided into two parts. Firstly, theheap’s diameter was determined as follows:

1. Read in the top-down view, e. g., Fig. 9a.2. Detect the two largest objects (which are the sphere and the

heap) and remove any other objects.3. Compute the length scale per pixel based in the occupied sur-

face projection of the sphere (a circle) and its known diameter;remove the sphere.

4. Obtain the area of all black pixels left on the image At (whichis only the heap), compute the center of this area and use thisas the center for a circle with radius rl =

√At/p

5. Remove any black pixels outside of this circle.6. Repeat steps 4 and 5 once and obtain an updated radius rt. This

is done in order to reduce the circle’s diameter, because theouter area of the heap is less densely packed with particles, ascan be seen from Fig. 9a.

7. Using the length scale from step 3, the radius rt is convertedto millimeters. This new radius rf is considered the diameter ofthe heap.

Determination of the height of the heap was carried out using thesteps described below:

1. Read in the side view, e. g., Fig. 9b.2. Detect the two largest objects (which are the sphere and the

heap) and remove any other objects.3. Compute the length scale per pixel based in the occupied sur-

face projection of the sphere (a circle) and its known diameter;remove the sphere.

4. Within the image matrix, find the first and last row holding ablack pixel. The difference of these row numbers ht equals theheap’s height in pixel units.

5. Using the length scale from step 3, the height ht is convertedinto millimeters, renamed hf, and considered the height of theheap.

6. To account for the bottom layer of spheres, which wereobstructed by the ring around the bottom plate, 5 mm (particlediameter) was subtracted from hf in this study.

Finally, the angle of repose a was computed according to Eq. (A1).

a = arctanhf

rf(A1)

Appendix B. Experimental plan

The experimental plan of this study is listed in Table B-1.

Table B-1Experimental plan of this study.

no. WRL SPP MU_PP MU_PW YM RF_PW

1 0 3 0 0 0 02 0 3 1 0 0 13 0 9 0 0 1 04 1 3 0 1 1 15 0 9 1 0 0 06 0.5 9 0 0 0 17 0.5 3 1 1 1 08 1 6 1 1 0 09 0.5 3 1 0 1 110 1 3 1 0 0 111 1 6 0 0 1 012 0 9 0 1 1 0

Table B-1 (continued)

no. WRL SPP MU_PP MU_PW YM RF_PW

13 0 6 1 1 1 014 0 3 1 1 1 115 1 9 0 1 0 116 1 9 0 0 0 017 0.5 9 0 1 1 118 0.5 9 1 1 0 119 0.5 6 1 1 1 020 0 3 0 1 1 121 0 6 0 1 0 122 1 3 1 1 0 123 1 3 0 0 0 124 0.5 3 0 1 1 025 0.5 6 1 0 0 026 0 9 1 1 1 127 0 6 1 0 1 028 1 9 1 1 1 129 0.5 9 1 0 0 030 1 6 0 1 0 031 0.5 3 0 0 0 032 1 6 1 0 0 033 0.5 6 0 1 1 134 0.5 6 0 0 0 135 1 9 1 0 1 036 0 6 0 0 1 137 0 6 0 0 0 038 1 9 1 0 0 139 0.5 6 0 0 1 040 0.5 6 0 1 0 041 1 6 1 0 1 142 0.5 3 0 0 1 143 1 6 0 1 1 144 0.5 9 1 0 1 145 1 9 1 1 0 046 0 6 1 0 0 147 0 9 1 1 0 048 0.5 6 1 0 1 149 0.5 3 0 1 0 150 1 3 0 0 1 051 1 3 1 1 1 052 0 6 0 1 1 053 0 3 0 1 0 054 0.5 6 1 1 0 155 0.5 9 1 1 1 056 0.5 9 0 1 0 057 1 9 0 0 1 158 1 9 0 1 1 059 0 3 1 1 0 060 0 6 1 1 0 161 0 9 0 1 0 162 1 6 0 0 0 163 1 3 1 0 1 064 0.5 3 1 0 0 065 1 6 1 1 1 166 0.5 3 1 1 0 167 0.5 9 0 0 1 068 0 9 1 0 1 169 1 3 0 1 0 070 0 9 0 0 0 171 0 3 1 0 1 072 0 3 0 0 1 1

References

[1] P.A. Cundall, O.D.L. Strack, A discrete numerical model for granular assemblies,Géotechnique 29 (1) (1979) 47–65.

[2] H.P. Zhu, Z.Y. Zhou, R.Y. Yang, A.B. Yu, Discrete particle simulation of particulatesystems: theoretical developments, Chem. Eng. Sci., 62 (13) (2007) 3378–3396.http://dx.doi.org/10.1016/j.ces.2006.12.089.

[3] M. Sakai, S. Koshizuka, Large-scale discrete element modeling in pneumaticconveying, Chem. Eng. Sci., 64 (3) (2009) 533–539. http://dx.doi.org/10.1016/j.ces.2008.10.003.

[4] M. Sakai, M. Abe, Y. Shigeto, S. Mizutani, H. Takahashi, A. Viré, J.R. Percival, J.Xiang, C.C. Pain, Verification and validation of a coarse grain model of the DEMin a bubbling fluidized bed, Chem. Eng. J., 244 (2014) 33–43. http://dx.doi.org/10.1016/j.cej.2014.01.029.

A Anhang: Abdrucke der eingebundenen Artikel

A-114

Page 135: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl, K. Hanley / Powder Technology 307 (2017) 73–83 83

[5] D.S. Nasato, C. Goniva, S. Pirker, C. Kloss, Coarse graining for large-scale DEMsimulations of particle flow - an investigation on contact and cohesion models,Procedia Eng., 102 (2015) 1484–1490. http://dx.doi.org/10.1016/j.proeng.2015.01.282.

[6] D.O. Potyondy, P.A. Cundall, A bonded-particle model for rock, Int. J. RockMech. Min., 41 (8) (2004) 1329–1364. http://dx.doi.org/10.1016/j.ijrmms.2004.09.011.

[7] K.J. Hanley, C. O’Sullivan, J.C. Oliveira, K. Cronin, E.P. Byrne, Application ofTaguchi methods to DEM calibration of bonded agglomerates, Powder Technol.,210 (3) (2011) 230–240. http://dx.doi.org/10.1016/j.powtec.2011.03.023.

[8] X. Huang, K.J. Hanley, C. O’Sullivan, C.-Y. Kwok, Exploring the influence of inter-particle friction on critical state behaviour using DEM, Int. J. Numer. Anal. Met.,38 (12) (2014) 1276–1297. http://dx.doi.org/10.1002/nag.2259.

[9] K.J. Hanley, C. O’Sullivan, X. Huang, Particle-scale mechanics of sand crushing incompression and shearing using DEM, Soils Found., 55 (5) (2015) 1100–1112.http://dx.doi.org/10.1016/j.sandf.2015.09.011.

[10] J. Ai, J.F. Chen, J.M. Rotter, J.Y. Ooi, Assessment of rolling resistance models indiscrete element simulations, Powder Technol., 206 (3) (2011) 269–282. http://dx.doi.org/10.1016/j.powtec.2010.09.030.

[11] J. Yoon, Application of experimental design and optimization to PFC modelcalibration in uniaxial compression simulation, Int. J. Rock Mech. Min., 44 (6)(2007) 871–889. http://dx.doi.org/10.1016/j.ijrmms.2007.01.004.

[12] J. Favier, D. Curry, R. LaRoche, Calibration of DEM Material Models to Approx-imate Bulk Particle Characteristics, Proc. 6th World Congress on ParticleTechnology, Nuremberg, Germany, 2010.

[13] M. Johnstone, Calibration of DEM Models for Granular Materials using BulkPhysical Tests, Ph.D. thesis. The University of Edinburgh. 2010.

[14] L. Benvenuti, C. Kloss, S. Pirker, Identification of DEM simulation parameters byArtificial Neural Networks and bulk experiments, Powder Technol. 291 (2016)456–465. http://dx.doi.org/10.1016/j.powtec.2016.01.003.

[15] M. Rackl, C.D. Görnig, K.J. Hanley, W.A. Günthner, Efficient Calibration of Dis-crete Element Material Model Parameters Using Latin Hypercube Samplingand Kriging, in: M. Papadrakakis, V. Papadopoulos, G. Stefanou, V. Plevris(Eds.), ECCOMAS Congress 2016 - Proceedings of the VII European Congress onComputational Methods, vol. II, 2016, pp. 4061–4072. Crete Island, Greece.

[16] C. Kloss, C. Goniva, A. Hager, S. Amberger, S. Pirker, Models, algorithms and val-idation for opensource DEM and CFD-DEM, Prog. Comput. Fluid Dyn., 12 (2/3)(2012) 140–152. http://dx.doi.org/10.1504/PCFD.2012.047457.

[17] J.W. Eaton, D. Bateman, S. Hauberg, R. Wehbring, GNU Octave version 4.0.0manual: a high-level interactive language for numerical computations, 2015.

[18] C. O’Sullivan, Particulate Discrete element Modelling: A Geomechanics Per-spective, 1st ed. ed., Taylor & Francis, Oxford, UK, 2011.

[19] Computing GmbH DCS, gran rolling_friction epsd model, 2016, http://www.cfdem.com/media/DEM/docu/gran_rolling_friction_epsd.html.

[20] R.L. Brown, J.C. Richards, P.V. Danckwerts, Principles of Powder Mechanics:Essays on the Packing and Flow of Powders and Bulk Solids, International Seriesof Monographs in Chemical Engineering vol. 10. Elsevier Science, Burlington,VT, US, 1970.

[21] A.C.-Y. Wong, Characterisation of the flowability of glass beads by bulk densi-ties ratio, Chem. Eng. Sci., 55 (18) (2000) 3855–3859. http://dx.doi.org/10.1016/S0009-2509(00)00048-8.

[22] M.D. McKay, R.J. Beckman, W.J. Conover, A comparison of three methods forselecting values of input variables in the analysis of output from a computercode, Technometrics, 21 (2) (1979) 239. http://dx.doi.org/10.2307/1268522.

[23] J. Bect, E. Vazquez, STK: a Small (Matlab/Octave) Toolbox for Kriging. Release2.3, 2014, http://kriging.sourceforge.net.

[24] T.J. Santner, B.J. Williams, W.I. Notz, The Design and Analysis of ComputerExperiments, Springer Series in Statistics Springer, New York, NY, 2003. http://dx.doi.org/10.1007/978-1-4757-3799-8.

[25] R. Webster, M.A. Oliver, Geostatistics for Environmental Scientists, 2nd ed. ed.,Statistics in Practice Wiley, Chichester, 2007.

[26] M.L. Stein, Interpolation of Spatial Data: Some Theory for Kriging, Springer,New York, NY, 1999. http://dx.doi.org/10.1007/978-1-4612-1494-6.

[27] J.P. Kleijnen, Design and Analysis of Simulation Experiments, InternationalSeries in Operations Research & Management Science vol. 111. Springer Sci-ence+Business Media LLC, Boston, MA, 2008. http://dx.doi.org/10.1007/978-0-387-71813-2.

[28] M. Rackl, K.J. Hanley, W.A. Günthner, Verfication of an automated work flowfor discrete element material parameter calibration, in: X. Li, Y. Feng, G. Mus-toe (Eds.), Proceedings of the 7th International Conference on Discrete ElementMethods, Springer Singapore, Singapore, 2016, in press.

[29] K. Levenberg, A method for the solution of certain non-linear problems in leastsquares, Q. Appl. Math., 2 (2) (1944) 164–168. http://www.jstor.org/stable/43633451?seq=1#page_scan_tab_contents.

[30] D.W. Marquardt, An algorithm for least-squares estimation of nonlinear param-eters, J. Soc. Ind. Appl. Math., 11 (2) (1963) 431–441. http://dx.doi.org/10.1137/0111030.

[31] O. Till, Optim: Non-linear Optimization Toolkit. Release 1.5.0, 2016, http://octave.sourceforge.net/optim/.

[32] U. Groemping, RcmdrPlugin.DoE: R Commander Plugin for (industrial) Designof Experiments, 2014, http://CRAN.R-project.org/package=RcmdrPlugin.DoE.

[33] R. Core Team, R: A Language and Environment for Statistical Computing, 2014,http://www.R-project.org/.

[34] A. Aigner, S. Schneiderbauer, C. Kloss, S. Pirker, Determining the Coefficientof Friction by Shear Tester Simulation, in: M. Bischoff, E. Onate, D. Owen, E.Ramm, P. Wriggers (Eds.), Proc. 3rd International Conference on Particle-BasedMethods (Particles 2013), International Center for Numerical Methods inEngineering (CIMNE), Barcelona, 2013, pp. 335–342.

[35] R. Bharadwaj, W.R. Ketterhagen, B.C. Hancock, Discrete element simulationstudy of a Freeman powder rheometer, Chem. Eng. Sci., 65 (21) (2010) 5747–5756. http://dx.doi.org/10.1016/j.ces.2010.04.002.

[36] I. Cavarretta, C. O’Sullivan, E. Ibraim, M. Lings, S. Hamlin, D.M. Wood, Character-ization of artificial spherical particles for DEM validation studies, Particuology,10 (2) (2012) 209–220. http://dx.doi.org/10.1016/j.partic.2011.10.007.

[37] Y.-C. Chung, J.Y. Ooi, Experimental Measurement and Discrete Element Mod-elling of a Dense Granular Medium under Loading, Proc. Joint MSME/ASCE/SESConference on Mechanics and Materials, Louisiana, USA, 2005.

[38] Y.-C. Chung, J.Y. Ooi, Confined compression and rod penetration of a densegranular medium: discrete element modelling and validation, in: W. Wu, H.-S.Yu (Eds.), Modern Trends in Geomechanics, Springer Proceedings in Physics>vol. 106, Springer-Verlag Berlin Heidelberg, Berlin, Heidelberg, 2006.

[39] Y.-C. Chung, J.Y. Ooi, A study of influence of gravity on bulk behaviour of par-ticulate solid, Particuology, 6 (6) (2008) 467–474. http://dx.doi.org/10.1016/j.partic.2008.07.017.

[40] J. Dove, D. Bents, J. Wang, B. Gao, Particle-scale surface interactions of non-dilative interface systems, Geotext. Geomembranes, 24 (3) (2006) 156–168.http://dx.doi.org/10.1016/j.geotexmem.2006.01.002.

[41] J. Fleischmann, R. Serban, D. Negrut, P. Jayakumar, On the importance of dis-placement history in soft-body contact models, J. Comput. Nonlinear Dyn., 11(4) (2016) 044502. http://dx.doi.org/10.1115/1.4031197.

[42] S.F. Foerster, M.Y. Louge, H. Chang, K. Allia, Measurements of the collision prop-erties of small spheres, Phys. Fluids, 6 (3) (1994) 1108. http://dx.doi.org/10.1063/1.868282.

[43] P. Gondret, M. Lance, L. Petit, Bouncing motion of spherical particles in fluids,Phys. Fluids, 14 (2) (2002) 643–652. http://dx.doi.org/10.1063/1.1427920.

[44] J. Härtl, J.Y. Ooi, Experiments and simulations of direct shear tests: porosity,contact friction and bulk friction, Granul. Matter, 10 (4) (2008) 263–271. http://dx.doi.org/10.1007/s10035-008-0085-3.

[45] J. Havlica, K. Jirounkova, T. Travnickova, M. Kohout, The effect of rotationalspeed on granular flow in a vertical bladed mixer, Powder Technol., 280 (2015)180–190. http://dx.doi.org/10.1016/j.powtec.2015.04.035.

[46] M. Kheiripour Langroudi, J. Sun, S. Sundaresan, G.I. Tardos, Transmission ofstresses in static and sheared granular beds: the influence of particle size,shearing rate, layer thickness and sensor size, Powder Technol., 203 (1) (2010)23–32. http://dx.doi.org/10.1016/j.powtec.2010.03.028.

[47] Y. Li, Y. Xu, S. Jiang, DEM Simulations and experiments of pebble flow withmonosized spheres, Powder Technol., 193 (3) (2009) 312–318. http://dx.doi.org/10.1016/j.powtec.2009.03.009.

[48] Y. Li, Y. Xu, C. Thornton, A comparison of discrete element simulations andexperiments for ‘sandpiles’ composed of spherical particles, Powder Technol.,160 (3) (2005) 219–228. http://dx.doi.org/10.1016/j.powtec.2005.09.002.

[49] J. O’Donovan, G. Marketos, C. O’Sullivan, Novel Methods for Bender ElementTest Analysis, in: K. Soga, K. Kumar, G. Biscontin, M. Kuo (Eds.), Geomechanicsfrom micro to macro, CRC Press/Balkema, Leiden, The Netherlands, 2015, pp.311–316.

[50] M. Otsubo, C. O’Sullivan, W.W. Sim, E. Ibraim, Quantitative assessment of theinfluence of surface roughness on soil stiffness, Géotechnique 65 (8) (2015)694–700. http://dx.doi.org/10.1680/geot.14.T.028.

[51] S. Yang, K. Luo, M. Fang, K. Zhang, J. Fan, Three-dimensional modeling ofgas-solid motion in a slot-rectangular spouted bed with the parallel frame-work of the Computational Fluid Dynamics-Discrete Element Method couplingapproach, Ind. Eng. Chem. Res., 52 (36) (2013) 13222–13231. http://dx.doi.org/10.1021/ie401811y.

[52] Y.C. Zhou, B.H. Xu, A.B. Yu, P. Zulli, An experimental and numerical study ofthe angle of repose of coarse spheres, Powder Technol., 125 (1) (2002) 45–54.http://dx.doi.org/10.1016/S0032-5910(01)00520-4.

[53] S. Lommen, D. Schott, G. Lodewijks, DEM Speedup: stiffness effects on behaviorof bulk material, Particuology, 12 (2014) 107–112. http://dx.doi.org/10.1016/j.partic.2013.03.006.

[54] C. Draug, Image 2.4.1 (package for GNU octave), http://octave.sourceforge.net/image/.

[55] European Federation of Materials Handling, FEM 2.582: General Properties ofbulk materials and their symbolization, November 1991.

A.3 Abdruck von Artikel 3

A-115

Page 136: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 137: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

A.4 Abdruck von Artikel 4

A.4 Abdruck von Artikel 4

Rackl, M.; Grötsch, F. E.; Rusch, M.; Fottner, J.: „Qualitative and Quantitative Assess-

ment of 3D-Scanned Bulk Solid Heap Data“. In: Powder Technology 321 (2017), S. 105-

118.

c© Elsevier B.V. 2017

Reprint with permission of Elsevier B.V.

A-117

Page 138: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 139: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Powder Technology 321 (2017) 105–118

Contents lists available at ScienceDirect

Powder Technology

j ourna l homepage: www.e lsev ie r .com/ locate /powtec

Qualitative and quantitative assessment of 3D-scanned bulk solidheap data

Michael Rackl*, Florian E. Grötsch, Markus Rusch1, Johannes FottnerInstitute for Materials Handling, Material Flow and Logistics, Technical University of Munich, Boltzmannstraße 15, Garching 85748, Germany

A R T I C L E I N F O

Article history:Received 13 March 2017Received in revised form 2 August 2017Accepted 6 August 2017Available online 9 August 2017

Keywords:Angle of reposeMaterial characterizationExperiment3D scanningBulk solidDiscrete element method calibration

A B S T R A C T

According to angle of repose theory, non-cohesive bulk solid heaps will form a perfect conical heap ifcarefully poured. However, there are indications that global shape deviations from an ideal cone exist inexperimentally generated heaps. For example, rounded heap tips and concave or convex heap shapes havebeen reported in the literature, but no studies exist concerning local shape deviations from spatial data. Themain aim of this study was to compare the 3D-scanned spatial data from experimentally generated heapsof eight bulk materials with their respective counterparts according to angle of repose/continuum theoryand to examine the differences both qualitatively and quantitatively. The results showed that mapping thedifferences between 3D scans and ideal cones onto a two-dimensional developed view of the ideal cone’slateral surface is a meaningful method for visualizing the heaps’ real shapes and for illustrating global as wellas local shape deviations. Furthermore, the averaged shapes and respective variances on the experimentalheaps’ circumferences were examined. Global shape deviations could be identified for lignite, milkpowder,limestone and coke. An important conclusion was that simple consideration of the averaged surface linesdoes not enable identification of rotationally asymmetric heaps; however, it can be useful for indicatingglobal shape deviations. Large surface line variance implies considerable rotational asymmetry, however theconverse conclusion is false.

© 2017 Elsevier B.V. All rights reserved.

1. Introduction

The angle of repose, V, is defined as the angle between a horizon-tal surface and the surface line of a conical heap of bulk material, asshown in Fig. 1a. Its value has a practical use for silo dimensioningand chute design in bulk materials handling. The angle of repose isalso used as a bulk property to calibrate discrete element materialmodels against [1]. Although the angle of repose is not a pure bulksolid characteristic, it can be useful for obtaining a rough estimateof a bulk material’s flowability [2, p. 14]. Despite the fact that theangle of repose only requires simple measurement setups, it dependson many internal bulk material properties, such as the particle size,particle shape or cohesion, as well as on external factors, such aspreconsolidation or the measurement technique [3].

Although the angle of repose is well-known and frequently men-tioned and manipulated by researchers and engineers, there existsno final consensus about how its value should be determined and

* Corresponding author.E-mail addresses: [email protected], [email protected] (M. Rackl).

1 Present address: Stadler Altenrhein AG, Industrie- und Gewerbepark, 9423Altenrhein, Switzerland.

the few national and international standards and guidelines areinconsistent. Furthermore, most of these standards prescribe abso-lute geometrical dimensions for the associated measurement equip-ment that are typically useful only for powder-sized particles, i.e.,micrometers to a few millimeters [4,5]. For instance, the references[4] and [5] define orifice diameters between 10 mm and 25 mm,which are of no practical use for bulk materials with particle sizesabove approximately 5 mm.

Apart from dimensional restrictions, different methods for gener-ating a heap to measure the angle of repose from are in use. Leavingaside the dynamic methods such as those involving avalanche-typemeasurements, there are at least three commonly used ways togenerate heaps suitable for angle of repose measurements ([6, p.184], [7]). Fig. 1 (b–d) depicts these three techniques. In Fig. 1b aheap is generated by pouring the bulk solid of interest through a fun-nel with a defined outlet size. Fig. 1c shows a similar method, wherethe funnel is replaced by a container with a defined orifice size andthe angle of repose can be measured from the bottom heap or fromthe bulk remaining inside the container; the angle measured fromthe latter is referred to as the drained angle of repose. Finally, Fig. 1dshows an open-bottom cylindrical container placed on the ground,filled with the bulk solid, and lifted up at a defined speed. Loss of the

http://dx.doi.org/10.1016/j.powtec.2017.08.0090032-5910/© 2017 Elsevier B.V. All rights reserved.

A.4 Abdruck von Artikel 4

A-119

Page 140: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

106 M. Rackl et al. / Powder Technology 321 (2017) 105–118

Fig. 1. Visualization of the definition of the angle of repose, V, (a) and three methods to generate heaps suitable for angle of repose measurements. b: Flow through a funnel, c:setup for measuring the angle of repose (bottom) and drained angle of repose (top), d: lifting a bottomless cylinder, previously filled with the bulk solid of interest.

container’s lateral support causes a heap to form. Needless to say, theangle of repose depends not only on which of the above mentionedmeasurement methods is used [8, p. 34], but also on their respec-tive boundary conditions, such as lifting speed [9], drop height or themeasurement equipment’s material [10].

Once a suitable bulk material heap has been generated, there existtwo different techniques to determine the angle of repose. On theone hand, the angle of repose can be directly measured, using a pro-tractor to obtain the angle of the heap’s surface line. On the otherhand, it can be measured indirectly by measuring the heap’s diame-ter and height and harnessing the trigonometric function tangent todetermine the angle of repose, e.g., as mentioned in the FEM stan-dard [11]. Differences in the obtained angle of repose can be observedwhen the heap’s shape deviates from that of a perfect cone. There arethree commonly observed systematic deviations from ideal conic-ity [7]: the heap’s tip is truncated (I), or the surface line is concave(II) or convex (III). Two of these deviations and their influence onthe angle of repose measurement are shown in Fig. 2. That under-lying heap’s shape is asymmetric and its tip is rounded, which canfrequently be observed [7]. Depending on direct or indirect angle ofrepose measurement, the value of the angle of repose varies in theleft half of Fig. 2. On the right in Fig. 2, the heap is concave. The flatrunout at the bottom of the heap renders direct measurement of theangle of repose ambiguous and there remain at least two possibili-ties for measuring it (VA,VB). As the two lines on the right indicate,the measured value might differ if someone else repeats the mea-surement. The angle of repose may also vary when it is measured atdifferent locations around a heap.

These issues raise the question of whether any bulk material heapshould be assumed to be based on a perfect cone. This assumptionis based on theoretical considerations from continuum mechanicsand has been in use ever since it was first introduced. A continu-ous heap of an ideal (non-cohesive) Coulomb material [12, p. 55] isassumed to be stable if the shear stress associated with a particle’sgrade resistance equals that attributable to the Coulomb friction,thereby directly relating the ideal Coulomb material’s inner frictioncoefficient to the angle of repose, V. The corresponding equation isl = tanV, where l is the ideal Coulomb material’s inner frictioncoefficient.

The fact that bulk solid heaps do not always form perfect coneshas only recently been discussed in few studies. For instance, Fraczeket al. [7], Lumay et al. [13], Graselli et al. [9,14,15] and Kurkuri etal. [16] previously investigated this phenomenon. While Kurkuri etal. proposed a new measurement technique for the angle of reposebased on two-dimensional image analysis, the works of Franczek etal. and Grasselli et al. delved more deeply into the shapes of granularheaps.

In the works of Grasselli et al. a line laser was used to capturethe surface of sand heaps as well as of sand heaps that other bod-ies had previously impacted. Although a description of the impact

zone and the flat runout at the bottoms of the sandpiles is provided,data for other bulk solids are unavailable. Franczek et al. pointed outthat a bulk material heap’s tip is typically rounded and that thereare two further systematic shape deviations, which are convexityand concavity of heap’s surface line. Since this is the main reasonwhy direct and indirect measurements of the angle of repose canproduce significantly different results, the group proposed a mea-surement algorithm based on image analysis. Lumay et al. basedshape deviations on photographs of bulk solid heaps’ side views,where an isosceles triangle was defined as the ideal angle of reposeshape. However, the way how these deviations were quantified isnot described for this two-dimensional method. Ryck et al. [17]found an analytical explanation for the concave shape associatedwith cohesive bulk solids such as powders. However, none of thestudies mentioned above addressed how shape differences could bequantified. Furthermore, it was almost always assumed that the bulksolid heaps were rotationally symmetric. The existence and possibleimpact of local shape deviations were neglected.

The main aim of this study was to compare the experimentallygenerated 3D-scanned heap surfaces of a variety of bulk materialswith those of ideal cones, to judge whether it is sensible to alwaysrely on the assumption from continuum theory and to examine andquantify global and local shape deviations. Therefore, various prop-erties of experimentally generated heaps were critically assessed.As a novelty, the differences between 3D-scanned surface scans andideal cones were mapped onto a two-dimensional representation ofthe cone’s surface line, which allowed qualitative and quantitativecomparison of the heap shapes.

2. Materials and methods

Details about the investigated bulk materials, the experimentalapparatus and the setup for 3D-scanning are provided in Sections 2.1and 2.2. The evaluation of the 3D scans is described in Section 2.3.

2.1. Investigated bulk materials

The bulk materials investigated in this study can be found inthe commercial sectors of mining, construction, renewable energyand food. They were selected to represent a wide variety of mate-rials, particle sizes, particle size distributions, and because of theirrelevance in industrial applications. The eight bulk materials werelignite, wood chips, lime stone, coke, fresh and dried corn grains, milkpowder, and bituminous coal.

Lignite was obtained from the surface mining plant in Hambach,Germany, which is operated by RWE Power AG. Fig. 3a shows aphotograph of this material.

High-quality wood chips were purchased from a local producer.According to the latter’s data sheet, the chips met the requirementsof quality class A-1 and the particle size specifications for P45-S

A Anhang: Abdrucke der eingebundenen Artikel

A-120

Page 141: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl et al. / Powder Technology 321 (2017) 105–118 107

Fig. 2. Outcome of the two different measurement methods for the angle of repose, when applied to a realistic heap from an experiment. Yellow: angle of repose via diameterand height; blue and cyan: angle of repose via direct measurement.Source: (Figure modified from [14]).

under the international standard ISO 17 255-4 [18]. Fig. 3b shows animage.

Jura lime stone was also supplied by a local company. Fig. 3cdepicts a sample of the 20 mm to 30 mm graded material.

Coke was supplied in graded quality with nominal particle sizesranging from 20 mm to 40 mm. Fig. 3d shows a photograph of thematerial.

Corn grains were investigated in two different states: dried [19]and freshly harvested [20]. Both types were purchased from the sameagricultural wholesaler; however, they originated from different har-vests. Samples are shown in Fig. 4a and b, respectively. The freshlyharvested grains clearly manifest crop residues.

Fig. 4c shows photograph of the examined milk powder. It is aproduct of France, suitable for human consumption and used in thefood industry [21].

The bituminous coal had nominal particle sizes ranging from 0mm (fines) to 50 mm and originated from Russia [22]. Fig. 4d showsa sample photograph.

2.2. Experiments

The experiments in this study covered conventional bulk materialcharacteristics such as the moisture content, particle size distribu-tion and bulk density. In addition to this, the angle of repose wasmeasured and the bulk solid heaps were recorded using a 3D scanner.A grand total of 108 experimental runs were carried out.

2.2.1. Moisture and particle size distributionThe bulk materials’ moisture content was measured based on

three 10 g samples per material (N = 3, 30 g in total). The mate-rial’s mass loss when heated from room temperature to 120 ◦ Cwas recorded to determine the mass-related water content. Stan-dard sieves were used to measure each bulk material’s particle sizedistribution.

The averaged moisture contents for the bulk solids are listedin Table 1. Lignite and freshly harvested corn grains contained thehighest share of water by far. Nonetheless, from experience when

Fig. 3. Sample photos of lignite (a), wood chips (b), lime stone (c) and coke (d), including a scale.Source: (Figure from [35]).

A.4 Abdruck von Artikel 4

A-121

Page 142: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

108 M. Rackl et al. / Powder Technology 321 (2017) 105–118

Fig. 4. Sample photos of fresh (a) and dried (b) corn grains, milk powder (c) and bituminous coal (d), including a scale.Source: (Figure from [35]).

handling both of these materials during the experiments, they werenot found to be wet or humid, which indicates that the waterwas contained within the particles, rather than between them. Themoisture content of the remaining bulk solids was between 0.42 %(dust-dry) and approximately 10 %.

The particle size distributions of the investigated bulk materialsare displayed in Figs. 5 and 6. Table 1 lists the respective median par-ticle diameters (d50). Milkpowder had the smallest particles overall(62 • 10−3 mm) whereas limestone had the largest (25.7 mm). Ligniteand bituminous coal contained a significant amount of fines, whichcould not be fully resolved with the available sieves. Nonetheless,the typical S-shaped curve for particle size distributions was observ-able for the wood chips, limestone and both kinds of corn grains. Themedian particle sizes of the fresh and dried corn grains differed bymore than a millimeter, which can be explained by the volume lossdue to the drying process.

2.2.2. Apparatus for bulk density and angle of repose measurementThe bottomless cylinder method was chosen from the methods

depicted in Fig. 1. It does not rely on flow through an orifice and thusallows for investigation of any bulk solid, including these with poorflow behavior. A test stand was designed and constructed in orderto measure the bulk density and the angle of repose. As depictedin Fig. 7, it consists of a circular, pivot-mounted base plate made ofrolled sheet metal and an electrical lifting unit. In addition to this, theexperimental apparatus features three topless and bottomless sheet

Table 1Moisture content listed as mean and standard deviation (N = 3) in mass-percent(m-%) as well median particle diameters (d50) of the bulk materials.

Bulk material Moisture content (m-%) d50 (mm)

Lignite 25.7 ± 1.2 5.6Wood chips 6.2 ± 0.1 11.6Limestone 1.2 ± 0.5 25.7Coke 6.1 ± 0.2 19.7Corn grains (fresh) 23.1 ± 0.8 7.1Corn grains (dry) 11.5 ± 0.5 5.7Milkpowder 2.3 ± 0.5 62 • 10−3

Bituminous coal 6.0 ± 0.3 3.1

metal cylinders with distinct diameters and heights. The cylindricalcontainers’ geometrical dimensions are listed in Table 2. The variouscylinders enabled investigation of bulk material volumes between 16L and about 220 L, which was of vital importance for the rather largeparticle sizes of the materials investigated in this work.

The angle of repose and bulk density were obtainable in a singleprocess using the described setup. The respective cylindrical con-tainer was first placed in the middle of the base plate and filled to thefilling height with the bulk solid of interest. Before pouring the bulkmaterial into the container its mass was recorded with digital scales.Hence, the total mass of the material inside the container was knownand used to calculate the bulk density based on the container’s filledvolume (cf. Table 2).

In the next step, the cable winch was switched on and the cylin-drical container was lifted at a constant speed. A vertical guideprevented the cylinder from swinging while being lifted. Since thebulk material inside the cylinder lost its lateral support as the cylin-der was lifted, the material column gradually collapsed and formeda heap. The angle of repose was measured using the proceduredescribed in the FEM standard 2.582 [11], which is an indirect mea-surement method based on the heap’s diameter and height. Itsheight was measured perpendicular to the base plate and the heap’sdiameter was measured at the heap’s bottom and crosswise at twolocations with 90◦ offset with regard to its center. The average ofthe crosswise diameters was used to calculate the angle of repose.An indirect angle of repose measurement method was chosen sincedirect measurements are difficult to reproduce when the surfaceline’s gradient varies along the heap’s height (e. g. Fig. 2, right) oraround the heap’s circumference, where the latter is the case forrotationally asymmetric heaps.

2.2.3. Setup for 3D-scanningThe principal setup for recording the bulk solid heaps’ 3D scans is

depicted in Fig. 8. After the container was lifted and the heap had set-tled, a 3D scanning device (Microsoft Kinect v2 [23]) was activatedand recorded the bulk material heap’s surface shape. The scannerwas arranged so that it pointed approximately perpendicular ontothe heap’s surface line. Since the test stand’s base plate is rotatable,the scanner could remain stationary while capturing images and

A Anhang: Abdrucke der eingebundenen Artikel

A-122

Page 143: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl et al. / Powder Technology 321 (2017) 105–118 109

Fig. 5. Measured particle size distribution of lignite, wood chips, limestone and coke.

spatial information from all around the heap. Subsequently, the spa-tial information was reconstructed into three-dimensional surfacemeshes of the respective heaps, using KScan 3D [24] software.

2.2.4. Experimental planThe presented work’s experimental plan consisted of two study

plans. During each experimental run, the bulk density and angle ofrepose were recorded. Furthermore, both diameters from each angleof repose measurement were kept in order to assess the round-ness of the bulk solid heaps’ bases. In a final step, the bulk solidheaps’ surfaces were scanned using a 3D scanner to generate athree-dimensional digital representation of each heap.

The main study plan governed the investigation of all eight bulkmaterials with each container size for four repetitions (N = 4),which resulted in a total of 96 experimental runs. In addition tothis, the main study was supplemented by an investigation into theeffect of the lifting speed on the angle of repose. While in the mainstudy all containers were lifted at a speed of 142 mm s−1, the supple-mental study examined dry corn grains, limestone and wood chipsat a lifting speed of 33 mm s−1, using the medium-sized container.Hence, twelve additional data points were generated. The grand totalof experimental runs for this study summed up to 108 (27 uniquesetups), where each single heap was 3D-scanned, the heap heightand cross-wise heap diameters were measured to compute the angleof repose and the bulk density was recorded.

2.3. Evaluation of the 3D-scanned heaps and mapping fortwo-dimensional representation

The 3D scans of the heap surfaces were saved in STL file for-mat and preprocessed using a software for handling triangle meshdata [25]. During preprocessing, the meshes were aligned in theircoordinate system. Alignment in the coordinate systems was withthe positive Z axis perpendicular to the scanned cone’s bottom as

identified by artifacts from the test stand’s base plate. Furthermore,unrequired parts of the scans such as the base plate and otherartifacts from the experimental apparatus were removed and themeshes were cleaned up.

One of the main aims of this work was to use the 3D-scanned sur-face meshes of the heaps to achieve a previously unreached depth ofanalysis. The goal was to make shape differences between the ideal-ized cone and the real heap surface qualitatively and quantitativelyaccessible. The ideal cone was defined to have the same angle ofrepose and height as the real heap. Since the heaps and each respec-tive ideal cone were three-dimensional objects, an algorithm wasdeveloped with Matlab [26] to compute and visualize the detecteddifferences in two dimensions, such that this information could thenbe mapped onto a two-dimensional developed view of the cone’slateral surface.

The mapping process was divisible into three subtasks. Firstly, apoint cloud of the ideal cone needed to be generated. Secondly, the3D-scanned heap had to be aligned with regard to the ideal cone toenable the determination of differences between both. Finally, thedifferences between these objects had to be identified and computedas well as visualized.

Since the 3D-scanned heaps were based on triangle meshes,the triangles’ edge coordinates represented measured points on theheaps’ surfaces. To compare the location of these points with thosefrom an ideal cone, the surfaces of the ideal cone and the scannedheap had to have approximately the same points-per-area resolu-tion. The number of points of the scanned heap was hence used asa reference to determine the number of points per area required forthe ideal cone. Subsequently, a conical point cloud of the ideal conewas generated.

In the next step, the 3D-scanned heap and the ideal cone had tobe aligned within a mutual Cartesian coordinate system. The idealcone’s coordinate system was used as the reference and defined sothat its origin was at the cone’s bottom and in the center of the cone’s

Fig. 6. Measured particle size distribution of both kinds of corn grains, milkpowder and bituminous coal.

A.4 Abdruck von Artikel 4

A-123

Page 144: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

110 M. Rackl et al. / Powder Technology 321 (2017) 105–118

Fig. 7. Schematic (left) and photograph (right) of the experimental apparatus during measurements with wood chips. The base plate’s diameter is approximately 2 m.Source: (Figure adapted from [35]).

base. The coordinate system’s Z axis was perpendicular to the baseand passed through the heap’s tip, i. e., coinciding with the cone’saxis of symmetry. The X axis was defined to be perpendicular to theZ axis; its orientation was of no significance, since the cone was arotationally symmetrical body. The Y axis’ orientation followed fromthe two other axes and the Right-hand rule for Cartesian coordinatesystems (see Fig. 9, left). After defining the ideal cone’s coordinatesystem, the scanned heap’s point cloud had to be placed accordingly.In order to make sure that the scanned heap is optimally positioned,an optimization algorithm was used to translate it along the X, Yand Z axes and rotate it around the Z axis. This optimization pro-cess intended to minimize the sum of squared distances betweenthe nearest neighbor points of the scanned heap and the ideal cone.Doing so ensured that the positioning of both objects relative to eachother was uninfluenced by subjective judgment, as it would have notbeen with manual placement. Equal weight was put on each meshpoint and the general aim was to find the best fit for the ideal cone’sposition with regard to the scanned heap.

In the final step, the differences between the ideal cone and thescanned heap had to be determined. For each point on the ideal cone,�wi, its nearest neighbor (Euclidean distance) on the scanned heap,�ti, was sought and this pair of points was used to compute what iscalled a residual, si, in the following, and its associated sign. The rightside of Fig. 9 displays that the distance vector, �ai, between the sur-face point on the heap, �ti, and the surface point on the ideal cone,�wi, was defined as stated in Eq. (1). According to vector analysis,

the Euclidean distance, si, i. e., the magnitude of �ai, followed fromEq. (2). The squared sum of all si was used to align both point clouds,as mentioned before.

�ai = �ti − �wi (1)

Table 2Dimensions, filling heights and filled volumes of the cylindrical containers; di: innerdiameter, h: height, hf: filling height, Vf: filled volume.

Container designation di (mm) h (mm) hf (mm) Vf (10−3 m3)

Small 250 350 325 16.0Medium 425 600 545 77.3Large 600 800 780 221

si = | �ai| (2)

Since not only the residual si but also the information aboutwhether �ti was inside or outside of the ideal cone was of relevance,the surface normal vector, �ni, had to be taken into account. It wasdefined for each reference point, �wi, on the ideal cone as stated inEqs. (3), (4) and in the left of Fig. 9. Where �vi was a vector pointingfrom the point of interest, �wi, to the tip of the ideal cone. �ui couldbe considered the surface tangent and its normalized cross productwith �vi yielded the surface normal vector, �ni, which always pointedtowards the outside of the ideal cone.

�ui = �wi × �vi (3)

�ni =�vi × �ui

| �vi × �ui|(4)

Fig. 8. Principal sketch of the measurement setup for the 3D scans of the bulk solidheaps.

A Anhang: Abdrucke der eingebundenen Artikel

A-124

Page 145: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl et al. / Powder Technology 321 (2017) 105–118 111

Fig. 9. Definition of the surface normal vector, �ni , (left side) and the vector �ai between two nearest neighbor surface points on the ideal cone and the scanned heap.

Subsequently, the normal vector, �ni, was used to determinewhether the projection of �ai on �ni was pointing towards the outsideor towards the inside of the cone, as can be seen from Eq. (5). Sincethe alignment of both point clouds was a minimum error problem,an offset with regard to the alignment of two nearest neighbor pointswas inevitable. However, this discrepancy was considered negligiblysmall relative to the 3D scans’ precision and the resolutions of thesurface meshes.

Si =�ni • �ai

| �ni|2(5)

In Eq. (5), the sign of Si determined whether si was considerednegative or positive, i.e., whether �ai and �ni were parallel or anti-parallel. A negative value of Si thus represented a location, where theheap’s surface point, �ti, lay inside the ideal cone and a positive valueof Si implied that �ti was inside the cone.

Positive and negative si values were mapped with blue and redon the developed views of the ideal cone’s surface, respectively. Thedescribed methodology was successfully validated with various testcases of artificially generated heaps having known dimensions andshapes [27]. In preliminary studies the 3D scanning precision wasevaluated for bulk solid heaps and cuboids. The absolute precisionwas below 3 mm to 4 mm for cuboids with matt and glossy surfaces.The scanner is able to record rough surfaces, however sharp cusps onthe surface were somewhat smoothed out as a result of the 3D meshreconstruction.

3. Results and discussion

The findings of this study are reported separately for the conven-tional measurements and the 3D scans.

3.1. Bulk density, angle of repose and heap roundness

Following are the results of the conventional bulk material mea-surements.

3.1.1. Bulk densityTable 3 contains the measured bulk density values for each bulk

material and is grouped by the container size. The bulk densitiescover a wide range between circa 140 kg m−3 for wood chips and1300 kg m−3 for limestone.

Differences between the three container sizes are small for mostof the bulk materials, however there is a gap for lignite, limestoneand coke, in that the bulk densities measured in the small con-tainer are slightly less than those measured in the medium and largecontainer. For lignite, this difference is attributable to natural fluc-tuations of this mining good. Limestone and coke had the largestparticles with regard to median particle size, hence the lower bulkdensity in the small container resulted from the limited sample sizeas only a several dozen particles were in the sample volume. Thesematerials’ large particles were spatially constrained within the smallcontainer (ø 250 mm), which increased the samples’ porosities andthus reduced their bulk densities.

A comparison of the two kinds of corn grains revealed that thedried sample’s bulk density is slightly greater, despite its smallerwater content. Hence, the increase in bulk density must be connectedwith the dried corn grains’ smaller size, which is assumed to havedecreased the samples’ porosity enough to over-compensate for theloss of water mass.

Table 3Mean and standard deviation (N = 4) of the measured bulk density (kg m−3), groupedby container size.

Bulk material Container diameter, di , (mm)

250 425 600

Lignite 775 ± 4 819 ± 5 798 ± 11Wood chips 146 ± 5 141 ± 10 148 ± 5Limestone 1271 ± 33 1287 ± 12 1304 ± 110Coke 566 ± 48 637 ± 4 626 ± 4Corn grains (fresh) 706 ± 18 701 ± 8 715 ± 3Corn grains (dry) 725 ± 8 717 ± 5 723 ± 8Milkpowder 543 ± 12 559 ± 7 570 ± 2Bituminous coal 851 ± 15 853 ± 3 846 ± 2

A.4 Abdruck von Artikel 4

A-125

Page 146: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

112 M. Rackl et al. / Powder Technology 321 (2017) 105–118

Table 4Means and standard deviation (N = 4) of the angle of repose (◦; rounded to integers),where di: container diameter and vlift: lifting speed.

Bulk material di (mm) 250 425 600

vlift (mm s−1) 142 33 142 142

Lignite 31 ± 2 – 30 ± 0 30 ± 1Wood chips 41 ± 1 38 ± 3 35 ± 2 37 ± 1Limestone 26 ± 3 31 ± 1 26 ± 1 27 ± 0Coke 20 ± 1 – 21 ± 2 24 ± 1Corn grains (fresh) 22 ± 1 – 21 ± 0 21 ± 0Corn grains (dry) 16 ± 0 19 ± 3 16 ± 1 18 ± 0Milkpowder 36 ± 2 – 32 ± 0 31 ± 1Bituminous coal 28 ± 2 – 29 ± 1 31 ± 2

3.1.2. Angle of repose and heap roundnessBesides from a description of the angle of repose measurement

technique, the FEM standard [11] for angle of repose measurementalso provides a recommendation for the ratio between the bulkmaterial heap diameter and the particle size. It suggests that thisratio shall exceed 20 to generate sensible angle of repose results;yet, there are indications that a ratio of 20 is too small [28]. Thesmallest ratio observed in this study was 23 for limestone in thesmall container, which was within the standard’s recommendation.

Table 4 lists the means and standard deviation of the angleof repose measured according to the FEM standard. The resultswere grouped by container size and lifting speed. As mentionedin Section 2.2.4, the smaller lifting speed study only involved themedium-sized container and three materials. The measured anglesof repose ranged from 16◦ to 41◦. Given the angle of repose measure-ments’ generally high variance [29], there is no immense differencewith regard to the container sizes. However, the angles for woodchips and milkpowder were slightly greater when measured fromthe small container. As for the wood chips, it could be observed dur-ing the experiments that the particles became tangled with eachother and their fibrous surface structure hindered them from slidingpast each other; this behavior is typical for wood chips [30,31].

The lifting speed’s influence on the angle of repose was investi-gated on two levels for the medium-sized container with wood chips,limestone as well as dried corn grains. Fig. 10 visualizes the results,which show that the 33 mm s−1 lifting speed produces larger anglesof repose than does 142 mm s−1. This agrees with current findings inthe literature [32].

As a final step of the conventional analysis of the bulk mate-rial heaps, the roundness of the heaps was examined. Since theheaps’ base diameter was measured cross-wise, two perpendiculardiametral measurements were available for each heap. For the angleof repose calculation their respective mean was used. In addition, the

Fig. 10. Influence of lifting speed on the angle of repose. The figure shows means andstandard deviations (N = 4).

ratio of each heap’s diameters was calculated according to Eq. (6), toaccount for the heap’s roundness.

K =D − d

d(6)

In Eq. (6), the roundness, K, is computed based on the greaterof the two diameters, D, and its difference with the smaller diame-ter, d, divided by the same. If both diameters were the same, K = 0would result. The results for the roundness were grouped by bulkmaterial and container size and are depicted in Fig. 11. Most notably,the small container produced the least circular heap base areas withthe greatest standard deviations. Coke, limestone and milkpowderare the bulk solids where this effect was most pronounced. For thetwo former, it appeared that the sample volume inside the smallcontainer was insufficient to form a reasonable heap, as the ratiobetween sample volume and particle size was too small. This wasconsidered to be a geometrical effect. Even though the noncircularitywas in the same order of magnitude for milkpowder, the cause herewas cohesion, because the milk powder’s particles were by far toosmall to be affected by geometrical effects. The remaining materialsand container sizes produced reasonably round base areas.

3.2. Spatial heap data

In the following, the results from the evaluation of the 3D scansare presented and discussed.

3.2.1. Developed views with mapped residualsThe bulk material heaps’ actual shapes were evaluated based on

the residuals, which represent the differences between a perfect coneand the experimentally generated heaps. The 3D scans had a meanresolution of 60 data points per square centimeter of surface area andthe total number of scanned data points for all 108 heaps approached60 million. Figs. 12– 15 depict the developed views for one represen-tative scan of each material and container size. Positive and negativeresiduals are shown in blue and red, respectively. Positive residualsoccurred at locations where the respective 3D-scanned data pointwas outside of the ideal cone and negative residuals showed scanneddata points that were inside the ideal cone.

The developed views for fresh and dried corn grains in Fig. 12show large areas of small, evenly distributed residuals around theheaps’ circumferences. An annular structure is visible on the devel-oped views from both large container experiments.

Shown in Fig. 13, the surface structure of the fine-grained bitumi-nous coal exhibits local shape deviations. Dents and short trenchescan be found around the tip of the heap. Most of the bituminous coalheaps from this study were not rotationally symmetric.

The wood chip heaps, also shown in Fig. 13, reveal considerablylarge residuals and shape deviations, which are reminiscent of moun-tains and valleys over all container sizes. Needless to say, the overallshapes were not rotationally symmetric.

Limestone (Fig. 14) exhibits evenly distributed residuals allaround the ideal cone’s lateral area, for the large container experi-ments. However, in the scans from the small and medium containersresiduals increase significantly, when compared to the large con-tainer, and individual limestone particles can almost be perceived.As described in Section 3.1, the small container’s sample volumeappeared to be too small to generate an adequate heap for angle ofrepose measurement.

In the developed views of coke in Fig. 14, the residuals aresmall and evenly distributed around the heaps’ circumferences,which form a rotationally symmetric shape. In the figures from themedium and large containers, a ring of positive residuals is clearlyvisible around the heaps’ tips. Due to the coke’s narrow particle

A Anhang: Abdrucke der eingebundenen Artikel

A-126

Page 147: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl et al. / Powder Technology 321 (2017) 105–118 113

0.00

0.04

0.08

0.12

bituminous coal coke corn (dry) corn (wet) lignite limestone milkpowder wood chips

bulk material

roundness, K

(−

)

container size

250

425

600

Fig. 11. Influence of the bulk material and the container size on the roundness of the heap’s base area. The figure shows means and standard deviations (N = 4).

size distribution and median particle diameter of almost 20 mm, thedeveloped views seem mottled.

The residuals of lignite (Fig. 15) are low around the heaps’ tips;however, they gradually increase towards the bottom. The over-all shapes are rotationally symmetric. These two findings indicatethat the lignite, which had a very wide particle size distribution(cf. Fig. 5), segregated as the heap was being generated, i.e., largerparticles could not find enough support around the heap’s upperpart and rolled or slid downwards. This also agrees with observa-tions from during the experiments and with findings reported in theliterature ([12, p. 80], [33]).

Since milkpowder is cohesive, a concave heap shape wasexpected. The developed views reveal moderate to large shape devia-tions, which consist predominantly of negative residuals. The figuresfrom the small and medium container in Fig. 15 show an irregu-larly shaped ring between the heap’s tip and bottom, which supportsthe initial assumption of a generally concave shape. The protrusion

near the heaps’ bottom indicates that there are two considerablydifferent gradients, as described for concave heaps by Fraczek etal. [7] and visualized in Fig. 2 (right). The heaps generated with thelarge container show clear deviations from conicity and the corre-sponding residuals are large (note the different scale on the legend).A thesis for the formation of such highly irregular shapes was givenby Rackl et al. [28]. The group argued that the asymmetrical shapeof milkpowder is caused by avalanche effects occurring while thecontainer is being lifted. Instead of immediately pouring out of thecontainer as the cylinder is lifted, the powder briefly keeps its cylin-drical shape due to cohesion. Only after further lifting of the cylinderand continuing loss of lateral support, the cohesive strength of thepowder is exceeded and batches of the bulk solid begin to inter-mittently pour out of the container. Since each batch supposedlysparks an avalanche, the shape is assumed to be caused by land-slides occurring locally, while the container is being lifted. The resultsand observations from the experiments in this study support these

Fig. 12. Representative developed views of an ideal cone’s lateral surface with mapped residuals si to the 3D-scanned heaps for fresh (top) and dried corn grains (bottom).Dimensions in millimeter.

A.4 Abdruck von Artikel 4

A-127

Page 148: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

114 M. Rackl et al. / Powder Technology 321 (2017) 105–118

Fig. 13. Representative developed views of an ideal cone’s lateral surface with mapped residuals si to the 3D-scanned heaps for bituminous coal (top) and wood chips (bottom).Dimensions in millimeter.

findings, agree well with simulation results from Fern and Soga [34]and extend the observations for wet sand from Rössler and Kat-terfeld [32] which were recorded at a very low lifting speed of8 mm s−1.

For further investigation the residuals were divided by themedian diameter (d50) of each respective bulk material. These nor-malized residuals’ means and standard deviations for each materialand container size are displayed in Fig. 16. It can be seen that, except

for milkpowder, positive values dominate the residuals, which con-forms with the visual impression from the developed views inFigs. 12 to 15 and indicates that convex shapes prevailed. The small-est values were found for wood chips and limestone (≈ 1). Thisconfirms that their fissured surfaces in Figs. 13 and 14 are con-nected to their large particle size. Contrary, the shape deviationsof lignite, bituminous coal and milkpowder are a result of bulkbehavior rather than single displaced particles. In addition to this, the

Fig. 14. Representative developed views of an ideal cone’s lateral surface with mapped residuals si to the 3D-scanned heaps for limestone (top) and coke (bottom). Dimensionsin millimeter.

A Anhang: Abdrucke der eingebundenen Artikel

A-128

Page 149: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl et al. / Powder Technology 321 (2017) 105–118 115

Fig. 15. Representative developed views of an ideal cone’s lateral surface with mapped residuals si to the 3D-scanned heaps for lignite (top) and milkpowder (bottom). Dimensionsin millimeter; note the different scaling for milkpowder.

normalized residuals of coke and milkpowder depend on the con-tainer size. Fig. 16 also depicts the large standard deviation withinthe milkpowder heaps.

3.2.2. Global shape deviationsSince each unique measurement in this study was repeated four

times, a large data base for quantitative analysis had been generated.A subset of all the experiments conducted with the 142 mm s−1 lift-ing speed was selected to identify global shape deviations betweenideal cones and the real heaps from the experiments. This data setof approximately 54 million data points was used to quantify thefindings from Section 3.2.1 and to put the results from Fig. 16 intocontext.

In order to quantify the global shape deviation two assump-tions were made for the purpose of this evaluation. (I) All heapswere assumed to be rotationally symmetric. Since previous findingsfrom this study had shown that not all heaps met this requirement,a measure to account for differences around the circumference of

the lateral surface was added to the evaluation; this was the stan-dard deviation. This was also done to check whether rotationallysymmetric heaps could be distinguished from non rotationally sym-metric ones using the methodology described here. (II) Heaps fromall container sizes were assumed to be geometrically similar for eachbulk material. All of the materials investigated met this requirementsatisfactorily.

The following steps were applied to each data set of an individual3D-scanned heap.

1. The values of the vertical heap coordinate, Zi, were normalizedrelative to the respective heap’s height, Zmax, using theequation: zi = Zi/Zmax.

2. The normalized height, with values, zi, ranging from 0 to 1,was split into 70 equally spaced bins. These bins representedvertically arranged slices through the heap.

3. All residuals for each bin were collected for each material,divided by the median particle size, and their means and stan-dard deviations computed. Hence, the mean represented the

Fig. 16. Means and standard deviations of the normalized residuals over the bulk materials and container sizes. Milkpowder is reported in an extra figure, since its values are ona considerably different scale. Container sizes are in millimeter.

A.4 Abdruck von Artikel 4

A-129

Page 150: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

116 M. Rackl et al. / Powder Technology 321 (2017) 105–118

0

20

40

60

0.00 0.25 0.50 0.75 1.00norm

. resid

., sid

50 (

−) lignite

0.0

2.5

5.0

0.00 0.25 0.50 0.75 1.00

wood chips

0.0

2.5

5.0

0.00 0.25 0.50 0.75 1.00norm

. resid

., sid

50 (

−) limestone

0.0

2.5

5.0

0.00 0.25 0.50 0.75 1.00

coke

0.0

2.5

5.0

0.00 0.25 0.50 0.75 1.00norm

. resid

., sid

50 (

−) corn (fresh)

0.0

2.5

5.0

0.00 0.25 0.50 0.75 1.00

corn (dry)

−1000

−500

0

500

0.00 0.25 0.50 0.75 1.00

normalized heap height, zi (−)

norm

. resid

., sid

50 (

−) milkpowder

−5

0

5

10

0.00 0.25 0.50 0.75 1.00

normalized heap height, zi (−)

bituminous coal

Fig. 17. Global heap shapes under the assumption of rotational symmetry, displayed by the means and standard deviations of the normalized residuals around the circumferenceof a heap relative to the normalized heap height. The dotted lines correspond to an ideal cone. Note the frameless figures feature varying ordinate limits for better graphicalrepresentation.

average normalized residual around the circumference at acertain height on the heap and the standard deviation capturedthese residuals’ variance. On the average, 8000 residuals werecollected per bin (N ≈ 8000).

4. Means and standard deviations were plotted over the normal-ized heap height, where its origin (0) equaled to bottom andits maximum equaled to the heap’s tip.

The results of the above methodology are shown in Fig. 17. Dot-ted lines correspond to an ideal cone, i.e., where the residuals areequal to zero. For both the fresh and dried corn grains the stan-dard deviations are small and the overall shape of the averaged3D-scanned contour is close to conical. This is indicated by the meanline, which is almost parallel to the dotted zero line for both mate-rials. The offset results from indirect measurement of the angle ofrepose and the rounded tip, which is also visible for the normalizedheight coordinates > 0.85.

At a first glance, the heap shapes for bituminous coal and woodchips seem similar, since both mean value contours conform well tothe dotted zero line. Nonetheless, it is known from the developedviews in Fig. 13 that both materials’ heaps had large local shape devi-ations. The means shown for these two materials in Fig. 17 thus resultfrom statistical averaging of positive and negative residuals aroundthe heap’s circumference. It becomes obvious that rotationally asym-metric heap shapes cannot be identified based solely on averagedcontour lines and that more detailed visualization such as developedviews with mapped residuals are required for this.

With limestone and coke the global shape deviation resemblingthat of a convex heap is apparent, whereas the largest normalized

residuals are around the normalized height of circa 0.6. The convexshape deviation is more pronounced with coke than with limestoneand is readily observable in the developed views of the coke inFig. 14, where a ring around the heap’s tip is clearly visible. This ringof positive residuals is a consequence of a rounded heap tip and theway the angle of repose was measured, as depicted by the yellow linein Fig. 2.

Lignite’s surface fits the cone assumption well for the heaps’upper halves (> 0.5), however the residuals gradually increasetowards the bottom. This is in accordance with the results presentedin Section 3.2.1 and the mentioned effect of segregation, wherebylarge particles gather at the heap’s bottom.

A completely different picture is presented by milkpowder. Asmentioned before, heaps of this material exhibit a concave shape,which the mostly negative residuals shown in Fig. 16 support. Thecourse of the averaged contour in Fig. 17 is mostly below the dottedzero line and the concave shape can clearly be seen. Two differentgradients can be observed based on the mean contour (cf. Fig. 2,right side), where the first is from approximately 0.125 to 0.5 andthe second between 0.55 and 0.8. Furthermore, the largest stan-dard deviation values in this study express the milk powder heaps’significantly rotationally asymmetric shape

4. Conclusion

This study aimed to compare the surface shape of bulk solid heapsobtained from physical experiments with the shape of ideal conesbased on angle of repose theory. It is the first published work known

A Anhang: Abdrucke der eingebundenen Artikel

A-130

Page 151: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

M. Rackl et al. / Powder Technology 321 (2017) 105–118 117

to the authors, in which three-dimensional spatial data was used toassess the shape of such heaps both qualitatively and quantitatively.A broad variety of bulk materials relevant to industry were used togenerate heaps suitable for angle of repose measurements and theseheaps were scanned using a 3D scanner. The results from this studyrevealed that the shape of bulk solids heaps can differ considerablyfrom that of a cone and that the differences can be categorized intolocal and global shape deviations. Cohesion, aspherical particle shapeand segregation due wide particle size distribution are causes whichcompromise the assumptions of angle of repose theory and theirrespective effects on heap shapes should not be underestimated.

Furthermore, the findings illustrate that care has to be exercisedwhen the angle of repose is reported, even for some non-cohesivebulk solids. As much information as possible, such as about the mea-surement setup and respective boundary conditions, must alwaysbe provided along with the angle of repose. Obvious significantdeviations from conicity, for example for coke as reported in thisstudy, should be pointed out. Besides, although the angle of reposeis theoretically valid only for non-cohesive bulk solids, it is alsooften reported for cohesive materials. The results for milkpowderdemonstrate that angle of repose data have to be treated withgreatest care in this case. If an angle of repose is reported with-out additional pieces of information, it implicitly means that theconical heap shape has to be assumed for any further process, e.g.,the calibration of discrete element simulation parameters. Further-more, a smaller standard deviation of the angle of repose of onebulk material over the other could be misinterpreted in such thatthe first appears to be better suited for angle of repose measure-ments. Yet, simply reporting the angle of repose does not expressthe fundamental discrepancies with regard to the respective heapshapes of the underlying bulk solids. In conclusion, it is crucialto always provide relevant heap shape information, e.g., in formof photographs or as developed views as demonstrated in thisstudy.

Computing the differences between an ideal cone and the 3D-scanned surface of a bulk solid heap and mapping the respectiveresiduals onto a two-dimensional developed view of the cone’slateral surface proved to be a meaningful method for visualiz-ing the shape of the heaps and depicting quantitative differences.Three major conclusions can be drawn from the combined evalu-ation of the developed views and the global shape deviations ofthe heaps (Fig. 17): (I) Taking multiple surface lines from acrossthe heap (e.g. [13]) and evaluating their means and variances isinsufficient to identify rotationally asymmetric heaps. Spatial datasuch as that visualized as a developed view is required to do sowithout doubt. (II) Indications of systematic global shape devia-tions can be obtained from averaged plots of the surface lines;however, they should always be backed by spatial data or exper-imental observation. (III) Large variance of an averaged surfaceline implies considerable rotational asymmetry, but the converse isfalse.

A secondary finding from this work indirectly concerns the appro-priate sample volume for angle of repose measurements. The FEMstandard 2.582 states that the heap diameter to particle size ratioshall exceed 20 for the heaps to be suitable for measurement; how-ever, experience from this study suggests that this ratio should bein excess of 40 to enable generation of consistent angle of reposedata. Apart from this, there are no recommendations in the liter-ature for the diameter, di, and height, hf, of the initial bulk solidcolumn inside the container, which is used to generate the heaps.The ratio of hf and di was 1.3 within this study and generating usableheaps for measuring the angle of repose proved possible for all ofthe materials. Although this ratio has no explicit theoretical use, itcan nonetheless be useful for researchers and engineers, who need todimension their experimental devices and who must find a compro-mise between the test stand’s applicability and its production cost

as well as the amounts of bulk solids that have to be handled andstored.

In the future, further studies concerning heap shapes should becarried out with other bulk materials. Identification of local andglobal shape deviations for different angle of repose measurementmethods and bulk materials could contribute to refined standardsin terms of generating adequate bulk solid heaps and improvingmeasurement techniques for the angle of repose. In particular, theimpact of the width of the particle size distribution, the relationbetween sample volume and (median) particle size as well as par-ticle asphericity should be investigated. As a side effect, consideringthe exact heap shape also will greatly improve the outcome whenheaps, i.e., angles of repose, are harnessed to calibrate discrete ele-ment models (DEM), since this characteristic is commonly used tocalibrate DEM models.

Conflict of interest

There is no conflict of interest.

Acknowledgment

The authors would like to thank Hendrik Otto from Otto-von-Guericke University Magdeburg for conducting the particle size andmoisture content measurements.

Some of the bulk solid samples were kindly provided by theInstitute of Logistics and Material Handling Systems of Otto-von-Guericke University (Magdeburg, Germany), Märker Kalk GmbH(Harburg, Germany), ThyssenKrupp Industrial Solutions AG (Essen,Germany), Vollenda-Werk GmbH (Kaltenberg, Germany), ENGIEKraftwerk Zolling GmbH & Co. KG (Zolling, Germany) and FLSmidthWadgassen GmbH (Wadgassen, Germany). The authors would like tothank these companies and institutions.

This study received funding by the AiF (no. 18371 N/1), withinthe program for sponsorship by Industrial Joint Research (IGF) of theGerman Federal Ministry of Economic Affairs and Energy based on anenactment of the German Parliament.

References

[1] C.J. Coetzee, Review: calibration of the discrete element method, PowderTechnol. 310 (2017) 104–142. http://dx.doi.org/10.1016/j.powtec.2017.01.015.

[2] K. Hoffmann, E. Krenn, G. Stanker, Fördertechnik 1: Bauelemente, ihre Kon-struktion und Berechnung, 6th Edition, Vol. 1 of Fördertechnik Oldenbourg,Wien, 2001.

[3] J.W. Carson, B.H. Pittenger, Bulk properties of powders, in: P.W. Lee (Ed.), Pow-der Metal Technologies and Applications, Vol. / prepared under the directionof the ASM International Handbook Committee ; Vol. 7 of ASM handbook ASMInternational, Materials Park, Ohio, 1998, pp. 287–301.

[4] ISO 4324: Surface active agents; powders and granules; measurement of theangle of repose (1983-12), 1983.

[5] EN 12047: Solid fertilizers - Measurement of static angle of repose (1996-11),1996.

[6] D. Schulze, Powders and Bulk Solids: Behavior, Characterization, Storage andFlow, Springer, Berlin, 2008.

[7] J. Fraczek, A. Złobecki, J. Zemanek, Assessment of angle of repose of granularplant material using computer image analysis, J. Food Eng. 83 (1) (2007)17–22.

[8] R.L. Brown, J.C. Richards, P.V. Danckwerts, Principles of Powder Mechan-ics: Essays on the Packing and Flow of Powders and Bulk Solids, Vol. 10 ofInternational series of monographs in chemical engineering Elsevier Science,Burlington, 1970.

[9] Y. Grasselli, H.J. Herrmann, Shapes of heaps and in silos, Eur. Phys. J. B 10 (4)(1999) 673–679. http://dx.doi.org/10.1007/s100510050899.

[10] Y. Grasselli, H.J. Herrmann, On the angles of dry granular heaps, Physica A:Statistical Mechanics and its Applications 246 (3-4) (1997) 301–312. http://dx.doi.org/10.1016/S0378-4371(97)00326-9.

[11] European Federation of Materials Handling, FEM 2.582: General Properties ofbulk materials and their symbolization (1991-11), 1991.

[12] D. McGlinchey, Characterisation of Bulk Solids, Blackwell, Oxford, 2005. http://dx.doi.org/10.1002/9781444305456.

A.4 Abdruck von Artikel 4

A-131

Page 152: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

118 M. Rackl et al. / Powder Technology 321 (2017) 105–118

[13] G. Lumay, F. Boschini, K. Traina, S. Bontempi, J.-C. Remy, R. Cloots, N.Vandewalle, Measuring the flowing properties of powders and grains, PowderTechnol. 224 (2012) 19–27. http://dx.doi.org/10.1016/j.powtec.2012.02.015.

[14] Y. Grasselli, H.J. Herrmann, G. Oron, S. Zapperi, Effect of impact energy on theshape of granular heaps, Granul. Matter 2 (2) (2000) 97–100. http://dx.doi.org/10.1007/s100350050039.

[15] Y. Grasselli, H.J. Herrmann, Crater formation on a three dimensional gran-ular heap, Granul. Matter 3 (4) (2001) 201–204. http://dx.doi.org/10.1007/s100350100095.

[16] M.D. Kurkuri, C. Randall, D. Losic, New method of measuring the angle of reposeof hard wheat grain, in: A.E.A. Barton (Ed.), Chemeca 2012, Engineers Australia,Barton, A.C.T., 2012, pp. 1814–1821.

[17] A. de Ryck, R. Condotta, J.A. Dodds, Shape of a cohesive granular heap, PowderTechnol. 157 (1-3) (2005) 72–78. http://dx.doi.org/10.1016/j.powtec.2005.05.013.

[18] ISO 17225-4: Solid biofuels - Fuel specifications and classes - Part 4: Gradedwood chips. 2014 (September).

[19] BayWa AG Bockhorn Germany, Feedstock corn grains, Harvest (2014)(Batch63).

[20] BayWa AG Bockhorn Germany, Corn grains, Harvest (2016)[21] eurosérum, Port Sur Saone, France, Technical data sheet: Skimmed Milk

Premium - Medium Heat - ADPI Extra grade, 2016.[22] Knight Energy Services Ltd., London, United Kingdom, Washed Russian Steam

Coal, Certificate of analysis, reference 336007/1, 2016.[23] Microsoft Corporation, Redmond, Washington, USA, Kinect v2 sensor, 2017,

accessed 02.02.2017. https://developer.microsoft.com/en-us/windows/kinect/hardware.

[24] LMI Technologies Inc., Burnaby, Canada, KSCAN3D version 1.2.0.2, 2017,accessed 21.02.2017. http://www.kscan3d.com/.

[25] Autodesk Corporation, San Rafael, California, USA, Meshmixer version 11.0.544,2017, accessed 21.02.2017. http://www.meshmixer.com/.

[26] The Mathworks Inc., Natick, Massachusetts, USA, MATLAB v.9.1, 2017.[27] M. Rusch, Studie zur 3D-gestützten Analyse von Schütthaufen (semester

thesis), Institute for Materials Handling, Material Flow and Logistics, 2015.Technical University of Munich. Germany. (16.12.2015).

[28] M. Rackl, F.E. Grötsch, W.A. Günthner, Angle of repose revisited: when is aheap a cone? Eur. Phys. J. (EPJ) Web Conf. 140 (2017) 02002. http://dx.doi.org/10.1051/epjconf/201714002002.

[29] E.L. Thompson, H.E. Huppert, Granular column collapses: further experi-mental results, J. Fluid Mech. 575 (2007) 177–186. http://dx.doi.org/10.1017/S0022112006004563.

[30] M. Rackl, W. Günthner, Experimental investigation on the influence of differ-ent grades of wood chips on screw feeding performance, Biomass Bioenergy 88(2016) 106–115. http://dx.doi.org/10.1016/j.biombioe.2016.03.011.

[31] M. Rackl, Y. Tan, W.A. Günthner, Feeding of biomass: design experience withwood chips, Bulk Solids Handling 36 (5) (2016) 44–49.

[32] T. Rössler, A. Katterfeld, Scalability of angle of repose tests for the calibration ofDEM parameters, in: D. Hastie (Ed.), Proceedings of The 12th International Con-ference on Bulk Materials Storage, Handling and Transportation (ICBMH 2016),The Institution of Engineers, Australia, 2016, pp. 201–211.

[33] Y. Fan, K.V. Jacob, B. Freireich, R.M. Lueptow, Segregation of granular materi-als in bounded heap flow: A review, Powder Technol. 312 (2017) 67–88. http://dx.doi.org/10.1016/j.powtec.2017.02.026.

[34] E.J. Fern, K. Soga, Granular column collapse of wet sand, Proc. Eng. 175 (2017)14–20. http://dx.doi.org/10.1016/j.proeng.2017.01.005.

[35] W.A. Günthner, J. Fottner, S. Kessler, H. Otto, M. Rackl, Generierung einer Daten-bank zur Kalibrierung von Schüttgütern für die DEM-Simulation von Förder-anlagen, Institute for Materials Handling, Material Flow, Logistics, TechnicalUniversity of Munich, in German (March 2017), 2017.

A Anhang: Abdrucke der eingebundenen Artikel

A-132

Page 153: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

B Liste betreuter Studienarbeiten

Die folgenden Bachelor-, Semester- und Masterarbeiten entstanden unter der Betreuung

des Autors dieser Dissertation.

Fritsch, A. K. F.: „Material Characterization of Excipients, their Mixtures and Validati-on“. Masterarbeit. Garching: Lehrstuhl für Fördertechnik Materialfluss Logistik, FakultätMaschinenwesen, Technische Universität München, Sep. 2016.

Grötsch, F. E.: „Experimente zur Bestimmung der Oberflächenform von Schüttungen“.Bachelorarbeit. Garching: Lehrstuhl für Fördertechnik Materialfluss Logistik, FakultätMaschinenwesen, Technische Universität München, Okt. 2016.

Molhoek, C. P.: „Optimizing the energy consumption of an agitator transporting wood chips“.Semesterarbeit. Garching: Lehrstuhl für Fördertechnik Materialfluss Logistik, FakultätMaschinenwesen, Technische Universität München, Feb. 2016.

Novaes Theoto, T.: „Comparative study between the DIN Standard and the US Standardfor the design of Screw Conveyors“. Semesterarbeit. Garching: Lehrstuhl für FördertechnikMaterialfluss Logistik, Fakultät Maschinenwesen, Technische Universität München, Dez.2016.

Obermaier, K.: „Methodik zur Dimensionierung von Förderschnecken für Hackschnitzel“.Bachelorarbeit. Garching: Lehrstuhl für Fördertechnik Materialfluss Logistik, FakultätMaschinenwesen, Technische Universität München, Okt. 2014.

Prinzewski, N.: „Simulative Untersuchung einer Beladevorrichtung für feinkörnige Schüttgü-ter“. Bachelorarbeit. Garching: Lehrstuhl für Fördertechnik Materialfluss Logistik, FakultätMaschinenwesen, Technische Universität München, Sep. 2014.

Rusch, M.: „Studie zur 3D-gestützten Analyse von Schütthaufen“. Semesterarbeit. Gar-ching: Lehrstuhl für Fördertechnik Materialfluss Logistik, Fakultät Maschinenwesen, Tech-nische Universität München, Dez. 2015.

Top, F.: „Erstellung eines DEM-Materialmodells und simulative Untersuchung des Einflus-ses von Rührwerks- und Schneckenparametern“. Semesterarbeit. Garching: Lehrstuhl fürFördertechnik Materialfluss Logistik, Fakultät Maschinenwesen, Technische UniversitätMünchen, Sep. 2015.

Vicente López, D.: „Calculation of Building Loads Caused by Continuous Material HandlingEquipment“. Bachelorarbeit. Garching: Lehrstuhl für Fördertechnik Materialfluss Logistik,Fakultät Maschinenwesen, Technische Universität München, Dez. 2015.

B-133

Page 154: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to
Page 155: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

C Lebenslauf und Veröffentlichungen des Autors

Michael RacklGeburtsjahr 1986

E-Mail-Adresse [email protected]

Berufliche Stationen

Wissenschaftlicher

Mitarbeiter

seit Dez. 2013

Technische Universität München

Lehrstuhl für Fördertechnik Materialfluss Logistik

Inhaber

seit Okt. 2013

Ibracon – Ingenieurbüro Michael Rackl

Zorneding

Gast-Wissenschaftler

Aug. 2015 – Sept. 2015

The University of Edinburgh, Vereinigtes Königreich

Institute for Infrastructure and Environment

Masterarbeit

Mär. 2013 – Sept. 2013

Legacy Research Institute

Legacy Biomechanics Laboratory

Portland (Oregon), USA

Wissenschaftliche

Hilfskraft

Aug. 2012 – Okt. 2012

Ostbayerische Technische Hochschule Regensburg

Labor für Biomechanik

DAAD-Stipendiat

Aug. 2011 – Sept. 2011

National Chiao Tung University

Laboratory for Precision Engineering & Simulation

Hsinchu, Taiwan

Ingenieurspraktikum

Aug. 2010 – Jan. 2011,

Devine & Associates – Consulting Engineers Ltd.

Enniskillen, Vereinigtes Königreich

Ingenieurspraktikum

Feb. 2010 – Mär. 2010

Decker Anlagenbau GmbH, Berching

CNC-Fräser Siebenwurst GmbH & Co. KG, Dietfurt

Jul. 2006 – Sept. 2009 Abteilung Mechanische Fertigung

C-135

Page 156: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

C Lebenslauf und Veröffentlichungen des Autors

Bildung

Promotion (Dr.-Ing.)

Dez. 2013 – Feb. 2018

Technische Universität München

Fakultät für Maschinenwesen

„Verifikation eines methodischen Kalibrierungsverfah-

rens für Diskrete-Elemente-Methode-Parameter unter

Einbeziehung des Rayleigh-Zeitschritts“

Masterstudium (M. Sc.)

Mär. 2012 – Okt. 2013

Maschinenbau, OTH Regensburg

Masterarbeit bei Legacy Research Institute (Portland,

Oregon, USA): „Mechanical Testing and Mathematical

Modeling of a Silicone-Suspended Fracture Plating

Strategy“

Bachelorstudium (B. Eng.)

Okt. 2008 – Mär. 2012

Maschinenbau, OTH Regensburg

Bachelorarbeit: „Patient-Specific Modelling of Fractu-

res of the Lower Jaw with FEA and Musculoskeletal

Simulation“

Berufsausbildung

Werkzeugmechaniker

Sept. 2003 – Jul. 2006

Siebenwurst GmbH & Co. KG, Dietfurt

Fachrichtung Formentechnik

Ausbildungszeitverkürzung um 6 Monate

Grundwehrdienst

Soldat

Okt. 2007 – Jun. 2008

Bundeswehr

Gäubodenkaserne und Wilhelm-Frankl-Kaserne

Auszeichnungen

Apr. 2018 DAAD-Kongressreisen-Stipendium für WCPT 8, USA

Jun. 2016 Stipendium f. ECCOMAS Conference 2016, gestiftet

von European Community on Computational Methods

in Applied Sciences

Mär. 2012 Bachelorabschluss unter den besten 6% im

Maschinenbau, OTH Regensburg

Okt. 2012 – Sept. 2013 Deutschlandstipendium, gestiftet von Siemens AG

Aug. 2011 – Sept. 2011 DAAD-Stipendium für Auslandspraktikum in Taiwan

C-136

Page 157: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

Veröffentlichungen

In Zeitschriften

Rackl, M.; Grötsch, F. E.; Günthner, W. A.: „Angle of repose revisited: When is a heap acone?“ In: European Physical Journal Web of Conferences 140 (2017), S. 02002.

Rackl, M.; Grötsch, F. E.; Rusch, M.; Fottner, J.: „Qualitative and Quantitative Assessmentof 3D-Scanned Bulk Solid Heap Data“. In: Powder Technology 321 (2017), S. 105–118.

Rackl, M.; Hanley, K. J.: „A Methodical Calibration Procedure for Discrete Element Models“.In: Powder Technology 307 (2017), S. 73–83.

Rackl, M.; Top, F.; Molhoek, C. P.; Schott, D. L.: „Feeding System for Wood Chips: ADEM Study to Improve Equipment Performance“. In: Biomass and Bioenergy 98 (2017),S. 43–52.

Rackl, M.; Günthner, W. A.: „Experimental investigation on the influence of different gradesof wood chips on screw feeding performance“. In: Biomass and Bioenergy 88 (2016),S. 106–115.

Rackl, M.; Tan, Y.; Günthner, W. A.: „Feeding of Biomass: Design Experience with WoodChips“. In: Bulk Solids Handling 36 (5 2016), S. 44–49.

In Tagungsbänden und Sammelwerken

Rackl, M.; Fottner, J.: „Efficient calibration of material and contact law-related DEMparameters with LIGGGHTS“. In: 2nd CFDEM Conference – Book of Abstracts. DCSComputing, S. 27.

Rackl, M.; Hanley, K. J.; Günthner, W. A.: „Verfication of an automated work flow fordiscrete element material parameter calibration“. In: Proceedings of the 7th InternationalConference on Discrete Element Methods. Hrsg. von Li, X.; Feng, Y.; Mustoe, G. SpringerProceedings in Physics. Springer Verlag, Singapur: 2017, S. 201–208.

Tan, Y.; Theoto, T.; Rackl, M.; Kessler, S.: „Vergleichsstudie zwischen deutschen undUS-amerikanischen Standards zur Auslegung von Schneckenförderern“. In: Schüttgutför-dertechnik (Markt-)Platz für Innovationen. Hrsg. von Katterfeld, A.; Krause, F.; Günthner,W. A.; Fottner, J.; Pfeiffer, D. LOGiSCH, Magdeburg: 2017, S. 111–123.

Rackl, M.; Günthner, W. A.: „Effiziente Kalibrierung von DEM-Materialmodell-Parametern“.In: 21. Fachtagung Schüttgutfördertechnik. Hrsg. von Günthner, W. A.; Fottner, J.; Katter-feld, A.; Krause, F. Garching: 2016, S. 143–151.

Rackl, M.; Görnig, C. D.; Hanley, K. J.; Günthner, W. A.: „Efficient calibration of discreteelement material model parameters using Latin hypercube sampling and Kriging“. In:Proceedings of ECCOMAS 2016. Hrsg. von Papadrakakis, M.; Papadopoulos, V.; Stefanou,G.; Plevris, V. Bd. 2. 2016, S. 4061–4072.

Ortner-Pichler, A.; Rackl, M.; Landschützer, C.; Kessler, S.; Jodin, D.; Günthner, W. A.:„Biomasslogistik - innovative Ansätze zur bedarfsorientierten Versorgung von Hackgut-feuerungen“. In: 20. Fachtagung Schüttgutfördertechnik 2015. Hrsg. von Katterfeld, A.;Krause, F.; Günthner, W. A.; Pfeiffer, D. Logisch, Magdeburg: 2015, S. 211–225.

C-137

Page 158: Verif ikation eines methodischen Kalibrierungsverfahrens ... · Furthermore, the Rayleigh time step was considered as an additional target value for the optimization algorithm, to

C Lebenslauf und Veröffentlichungen des Autors

Rackl, M.: „Material testing and hyperelastic material model curve fitting for Ogden,Polynomial and Yeoh models“. In: ScilabTEC - 7th International Scilab Users Conference.Hrsg. von Scilab Enterprises. 2015.

Software

Rackl, M.; Jelich, C.; Görnig, C. D.: DEcalioc: A discrete element method (DEM) calibrationframework for LIGGGHTS. 2017. URL: https://github.com/DECALIOC/DEcalioc(besucht am 24. 02. 2018).

Rackl, M.: Curve Fitting for Ogden, Yeoh and Polynomial Models. 2015. URL: https://fileexchange.scilab.org/toolboxes/350000 (besucht am 24. 02. 2018).

Vorträge und Posterpräsentationen

Rackl, M.: Efficient calibration of material and contact law-related DEM parameters withLIGGGHTS. Linz, Austria, 14. Sep. 2017.

Rackl, M.: Vergleichsstudie zwischen deutschen und US-amerikanischen Standards zurAuslegung von Schneckenförderern. Magdeburg, 27. Sep. 2017.

Fritsch, A. K.; Hildebrandt, C.; Gopireddy, S. R.; Rackl, M.; Urbanetz, N. A.: „Investigationof powder flowability in a model die filling process (Poster)“. In: Proceedings of the AnnualMeeting of the German Pharmaceutical Society. 2016, S. 158.

Rackl, M.: Efficient calibration of discrete element material model parameters using Latinhypercube sampling and Kriging. Chersonissos (Griechenland), 10. Juni 2016.

Rackl, M.: Effiziente Kalibrierung von DEM-Materialmodell-Parametern. Garching, 13. Okt.2016.

Rackl, M.: Verification of an automated work flow for discrete element material parametercalibration. Dalian (China), 4. Aug. 2016.

Rackl, M.; Top, F.; Günthner, W. A.: „DEM study on the interaction of an agitator with ascrew-conveyor-discharged hopper (Poster)“. In: PARTEC 2016 - Book of Abstracts. VDIVerlag: 2016, S. 348.

Ortner-Pichler, A.; Rackl, M.: Biomasslogistik - innovative Ansätze zur bedarfsorientiertenVersorgung von Hackgutfeuerungen. Magdeburg, 23. Sep. 2015.

Rackl, M.: Material testing and hyperelastic material model curve fitting for Ogden, Polyno-mial and Yeoh models. Paris (Frankreich), 21. Mai 2015.

Perkins, J.; Sandler, A.; Wells-Papanek, D.; Donelly, B.; Ludwig, C.; Rackl, M.: ClassroomInnovation Using the Digital STEAM Workshop. Las Vegas (USA), 1. Dez. 2014.

C-138